#AI 算力
中美AI算力中盤博弈:開放與封閉之爭
近日,GoogleTPU攜Gemini3逆襲之勢大幅拓寬增量前景,Meta考慮斥資數十億美元為其買單,機構將TPU產量預期上調67%至500萬塊。基於“晶片-光交換網路-大模型-雲服務”全鏈閉環,Google智算體系重回AI賽道前沿梯隊,標誌著美式封閉壟斷路線更進一步。與此同時,以DeepSeek為代表的開源模型緊追不捨。月初,DeepSeek V3.2及其長思考增強版模型出爐,前者在性能測試中打平ChatGPT,後者直接對標閉源模型頂流Gemini。這也預示著中國開源開放路線漸入佳境,國產智算體系在應用層展現出良好的生態協同潛力。至此,中美AI產業博弈棋至中盤,“開放協同”與“封閉壟斷”對位格局愈發清晰。尤其在智算生態佈局中,兩大陣營或正醞釀著一場體系化能力的巔峰較量。從Gemini 3到TPU v7,軟硬一體閉環臻至極境毋庸置疑,GoogleTPU的突然走紅,很大程度得益於Gemini3的模型能力驗證。作為專為GoogleTensorFlow框架而生的ASIC晶片,TPU憑藉軟硬體一體化設計為其全端閉環完成奠基,同時也在上層應用高位突破時俘獲外部使用者市場,甚至一度被視為輝達GPU的最強平替。所謂“軟硬一體化”,即硬體的設計完全服務於上層的軟體和演算法需求。如Gemini 3訓練和推理過程高度適配TPU叢集,而這種定製化專用模式也在功耗能效方面展現出極高價值——TPU v5e的功耗僅為NVIDIA H100的20%-30%,TPU v7每瓦性能較前代產品翻倍增長。目前,Google通過“晶片+模型+框架+雲服務”的垂直整合,形成了一個封閉且高效的循環。一方面極大地提升了自身AI研發和應用開發效率,另一方面也在NV主流體系下裂土而治,奪得又一智算賽道主導權,Meta對TPU的採購意向則將這一體系熱度推向了高點。業內有觀點指出,從蘋果到Google,美式的垂直封閉玩法幾乎臻至極境,表現出科技巨頭為鞏固和擴張利益版圖,在產業鏈層面泛在的壟斷慾望。但從生態發展角度來看,封閉模式缺乏長期主義精神,極易導致產業長下游喪失創新活性,並形成單一主體高度集權的格局。另外,從TPU的應用場景來看,軟硬一體閉環儼然是專屬於巨頭的遊戲。某分析人士稱,Google的叢集化設計和“軟體黑盒”,需要使用者重新配置一整套異構基礎設施。如果沒有兆參數模型訓練需求,根本填不滿TPU的脈動陣列,省下的電費可能都抵消不了遷移成本。同時,由於TPU技術路線極為封閉,與主流開發環境無法相容,使用者還需要一支專業的工程團隊駕馭其XLA編譯器,重構底層程式碼。也就是說,只有像Google、Meta這種等級的企業才有資格轉向TPU路線,也只有算力規模達到一定程度才能發揮出定製化產物的能效優勢。不可否認,Google等頭部企業通過垂直整合自建閉環,在局部賽道快速實現單點突破,同時也造就了美國科技巨頭林立的蔚然氣象。但在中美AI博弈背景下,美式封閉壟斷路線憑藉先發優勢提前完成了賽道卡位,被動的追隨式趕超已很難滿足中國智算產業的發展需要。“小院高牆”之外,如何充分發揮舉國體制優勢,團結一切力量拆牆修路,成為拉近中美AI體系差距的關鍵。多元異構生態協同,開放路徑通往下一賽點相較於美式寡頭壟斷模式,中國智算產業正基於多元異構體系層層解耦,重塑開放式生態系統。從頂層設計到產業落地,“開源開放+協同創新”已然成為國產軟硬體全端共識。在政策層面,《算力基礎設施高品質發展行動計畫》提出建構佈局合理、泛在連接、靈活高效的算力網際網路,增強異構算力與網路的融合能力,實現多元異構算力跨域調度編排。並且,相關部門多次強調,鼓勵各方主體創新探索智能計算中心建設營運模式和多方協同合作機制。延伸到AI應用層,《關於深入實施“人工智慧+”行動的意見》同樣要求深化人工智慧領域高水平開放,推動技術開源可及......不難看出,國家在人工智慧和智算領域給出了截然不同的中國方案——不在封閉路線中盲目追趕封閉,要在開放格局下謀求錯位趕超。事實上,頂層設計完全基於產業現實需要。在美方科技封鎖下,中國智算產業主要面臨兩大挑戰:單卡算力性能瓶頸、算力成本高。除了在晶片、模型、基礎軟體等核心技術領域持續攻堅外,當前更有效的途徑是發展更大規模、更多元高效的智算叢集,突破AI算力瓶頸。業內調研結果顯示,國內宣佈擁有千卡規模的算力叢集不少於100個,但其中大部分是異構晶片。可以想像,假如不同硬體系統相互封閉,標準介面不統一,軟體棧互不相容,將導致難以實現智算資源的有效整合利用,更無法滿足大規模參數模型的應用需求。根據行業主流觀點,國產AI算力存在多元化、碎片化特徵,同時又具備相當的規模化優勢。當務之急並不是各自埋頭推進單一技術路線,更首要的是盡快打通“技術牆”、“生態牆”,實現產業鏈開放跨層協作,真正釋放總體算力生態潛能,從單點突破邁向整合創新。具體來看,所謂開放路線旨在基於開放的計算架構推動產業生態協同創新。比如通過制定統一的介面規範,聯動晶片、計算系統、大模型等產業鏈上下游企業共同參與生態建設,減少重複性研發和適配投入,共享技術攻關和協同創新效益。同時,隨著開放架構中的協作標準趨於統一,可以進一步打造出商品化的軟硬體技術,用以代替定製化、專有化的系統,進而降低計算產品應用成本,實現覆蓋產業全端的算力普惠。顯然,在中國式開放體系下,國產AI算力正打破GoogleTPU的泛化普及困境,將智算生態系統與各方開發者使用者廣泛連結,最終形成體系化協同戰力,更靈活高效賦能人工智慧+落地。屆時,中美AI博弈也將走出單卡競爭和單一模型比拚,全面迎來生態體系能力的終極對壘。 (伯虎財經)
1.4 萬字全文!任正非最新講話:以後是算力過剩的
別盯著“發明”,要盯著“應用”。近日,華為創始人任正非在位於上海的華為練秋湖研發中心與ICPC全球優勝者及教練座談,圍繞AI未來、教育本質與青年成長展開對話。談及當下火熱的AI,任正非的觀點很明確:別盯著“發明”,要盯著“應用”。“AI發明頂多成就一家IT公司,應用卻能強大一個國家。”他算了筆帳,洗煤精度提高0.1%,乘以中國40億噸的煤炭產量,價值驚人;高爐煉鐵效率提升1%,省下的燃料更是難以計數。華為自己的AI探索,也全圍著“應用”轉。他表示,公司研究“著眼在未來3-5年”,要把大模型用在高爐裡,通過資料算出爐溫,提前兩小時預判鐵水矽含量。還可以用在礦山裡,讓礦工在地面操作機械,避開瓦斯和塌方。此外,還要用在醫院裡,瑞金醫院的病理模型、中山醫科大學的眼科遠端診斷,都是現成的例子。不同國家該怎麼搞AI?任正非覺得不能“一刀切”。像印尼,當務之急不是爭大模型領先,而是把AI用在港口自動化上,“用北斗的釐米級定位,讓船舶一靠近電磁就把它吸到岸邊,比纜繩簡單多了”。而中國的方向,是解決實際問題:城市安全、水泥生產無人化,還有450公里時速高鐵的5G-R調度系統。有人擔心算力不夠,任正非卻覺得“以後是算力過剩的,不是想像的算力不足”。在他看來,“建數千個、數百個大模型都是正確的探索。現在大模型大到什麼程度,需要多少算力?華為在解釋超節點的時候講到了950、960、970,但我們需要多少個“970”,970在那兒能用?需要多少台,叢集怎麼連接。這是一種線性技術推演,是一定能實現的算力假設。但需求在那裡,我們還沒有能力很好的預測和推演,需求是不是一種線性結構,萬一是非線性的呢?”任正非表示,“因此,算力過剩的時代一定會到來的,做模型的人不要擔心,模型怎麼能夠對社會有用,也不是你要擔心的問題。模型面向千行百業的應用訓練和推理,將來能不能產生商業應用,又是另外一些人來做,就是行業應用工程師。”以下為演講全文:《練秋湖畔貝殼圖書館漫談》任總與ICPC主席、教練及獲獎選手座談會紀要:2025年11月14日上午Veronika Soboleva:大家早上好!首先,非常感謝任總將ICPC的隊伍帶到練秋湖這麼漂亮的園區,非常榮幸今天能夠來到這裡。所有參加的成員都代表ICPC,這一年都非常努力,他們來自超過三十多個國家和地區,有110多人,包括來自世界各地的教練和參賽獲勝者。有一些同事是遠端參加,有一些是現場參加,非常高興來到這裡分享我們的想法,聆聽您的洞見。非常感謝華為的周到安排,感謝將ICPC整個社區的教練和參賽選手帶到這裡,我們有三部分的關鍵工作,包括與學術界、院校和產業界連接到一起,所以這是一個非常好的活動。歡迎大家!ICPC主席:首先,非常感謝邀請我們來到這個美麗的園區,這是一個方方面面都非常棒的地方,是一個廣交朋友、一起聚會的好地方。我想對大家表達感謝,給我們提供這樣的機會。英語有一個非常好的詞是“together”,能夠聚在一起,非常感謝!任總:非常感謝ICPC主席、各位教練、各位年輕的世界金牌獲得者。我們認為,我們正處在一個快速變動的時代,希望在年輕人,你們正放射著青春的光芒。你們是年輕人的榜樣,時代的希望是寄託在你們青年人身上的。在你們這個行業,我是一個外行,並不完全知曉應該怎麼做,而且對這個時代我也有一些迷茫。在這個時代中和大家建立一種溝通,建立一種友好的紐帶,通過這個紐帶,感知世界的脈搏,感知你們青年人的夢幻,我十分幸運。大家一起感受著時代的跳躍,都不知道技術上會有什麼樣的未來,從而使我們在這個時代共同努力前進探索。我不瞭解大家,無法做一個系統性的講話,還是想跟大家溝通,聽聽大家的意見。Veronika Soboleva:非常感謝任總。過去三天大家在華為參加了很多的研討會,提過很多問題,也解決了很多挑戰。我知道大家跟任總有很多關於AI的問題想要討論,今年ICPC的挑戰賽也是聚焦在AI上,以這個題目為主;我知道也會有很多問題跟教育有關,以及全球各地的差異和挑戰,因為世界各地的水平和條件是有差異的。1、Veronika Soboleva:從參賽選手昨天討論中聽到一個問題,現在已經到了AI的時代,也面臨AI帶來的挑戰,華為在這方面是怎麼看?不僅僅是ICPC整個社區,而是全球大社區怎麼解決AI所帶來的挑戰?我們有很多不同的想法,需要怎麼做?想聽一聽您如何看待AI的未來?我們要解決的問題是什麼,怎麼才能一起解決這些挑戰?任總:對於AI的問題,我是外行。我認為,可以分為幾個階段來理解AI和人類的關係。二十年後到未來的一千年,這是社會學家和人類學家去研究的問題,尤瓦爾·赫拉利是個代表人物,《智人之上》在探討AI技術發展可能給社會結構、人類生存狀態帶來的深層變革與潛在影響。隨著巨量資料、大模型的推演,他說的是不是事實,也可能二十年後你們年輕人能夠知曉這個事情,感知這個時代。未來十年到二十年這個階段,應該是大預言家、大科學家心裡構想未來的科技社會結構是什麼。我們公司研究是著眼在未來3-5年,大模型、巨量資料、大算力如何在工農業、科技產業上應用。例如,高爐煉鐵,通過大模型分層知曉每一層的爐溫的合理控制,適當合理降低爐溫,最佳化燃料礦石配製的控制,並推演兩個小時後出的鐵水矽含量是多少,確定將投入的燃料和礦石的比例是多少,這樣可以提高高爐的效率1%;中國已經可以在地下500米-700米或者更深的地方使用無人方式“挖煤”,為什麼?無人挖煤井下狹長巷道的情況全部通過資料採集拼接成完整連貫的即時視訊,所以人在地面上或者遙遠的遠方可以操作煤礦機械挖煤,預測瓦斯的爆炸、透水以及塌方,保障礦工的安全;煤炭運到地面之後,通過洗煤來精選煤炭,用大模型也能提高精選精度0.1%,多生產一些精煤;同時,在露天礦山可以完全無人挖掘裝礦,幾百輛重型礦車、挖掘機完全無人地運行。港口裝卸、堆垛、通關無人化,比如天津港無人裝卸作業,從集裝箱的裝卸、堆垛到通關都是無人。秘魯的錢凱港也是如此。所以,我們著眼於這些地方。第二,人的身體健康。大家知道生理切片嗎?瑞金醫院的病理大模型已經大規模使用,用大模型推理對切片的分析,幫助醫生提高診斷能力。還有中山醫科大學的眼科模型,可以用手機拍照,也可以用專用儀器拍照,它能遠端診斷,幫助邊遠地區的醫生提高診斷能力,……。大家還知道乘用車的自動駕駛模型,以及座艙和手機上的小藝對話模型等等,我們聚焦在這些地方,著眼於在大模型上解決一些在生產與消費中的實際問題。當然進步的空間還有很大,還有很多需要積累。2、提問:任總,我來自新加坡國立大學,目前也是國際資訊學奧林匹克競賽(IOI)的主席。在此我代表IOI,對華為這些年給我們的支援與贊助致以萬分謝意。剛才有提到一個問題,在某些地區還沒有達到我們現在看到的水準。所以,接下來IOI要做的事情是怎麼幫助這些地區,不要給他魚,而是教他們怎麼釣魚。希望接下來的計畫,把這些國家的教練召集在一起,提供給他們訓練的資料和平台,幫忙他們能夠提高在IT方面的水準。這些國家程式設計都做不好,怎麼能夠想到做好人工智慧的東西。希望華為能大力支援我們,讓這些國家的水準能夠提高。任總:現在發達和先進的網路,給社會提供了陳老師所講的需求。過去你一定要考到名校,有老師在講台上給你面授講課,你才能是名師出高徒。現在很多知名大學都開放網路教學了,學生在任何一個山溝溝都能上到世界名牌大學的課程,只是沒有輔導老師給他提供足夠的輔導,否則就等於也讀了一個世界名校。網路已經提供了各種可能,從過去物理性的集中到現在邏輯上的分散,通過網路的邏輯分散,使邊遠地區的學校都得到了極大進步。現在七、八歲的小孩有時給老師提的問題,老師回答不了,因為他在網上看了很多知識,他有自己的獨立見解,老師面對這個問題有一定的難度,這是整個社會在進步。過去我們必須到北京、紐約、波士頓、倫敦……才能讀到的課程,現在山溝溝裡通過網路就能讀到,對這些課程理解有多深,當然是有困難的,需要很好的輔導老師。輔導老師也不需要物理式見面,也可以用邏輯上的網路。我們從物理性集中式的教育模型向邏輯性分散的教育模型轉變,是有利於整個人類社會進步的。當人類進步時,最先進步的是小孩。這就是聰明才智在成長,時代在進步。未來時代的希望在青年,青年會擔負起社會振興的任務。人工智慧促使生產性的進步,三、五年後我們就能體會到的。大家說五至十年、十到二十年、二十年以後的事我不知道,人工智慧的發展速度太快,我不完全知道未來時代的走向是什麼。剛才我講的東西,是社會已經做到了。比如,拿一個小小的超聲波探測頭,在西藏牧區給牧民的腰上掃一掃,資料通過3000公里的網路傳到深圳檢測中心,從超聲波儀器裡能發現藏民身上的肝包蟲,這就是低時延的5G和高寬頻光纖網路起到的傳輸作用。因為在牧區不可能有超聲波儀器,但是有一個探頭,像手機一樣掃描肝。現在5G+遠端輔助診斷出現,這都是人工智慧起的很大作用。這種遠端的方式用於教學,一樣能使人類社會巨大的進步。3、提問:任總,我是來自上海交大的教練。我曾經在2002年、2005年、2010年三次獲得ACM ICPC世界冠軍。我後來成立了ACM班,是希望培養我們自己的電腦科學家,不是拿更多的冠軍。我在想2002年成立ACM班,到現在二十多年,其實ACM班在全球的影響力還是挺大的。現在很多學生都去國外深造,希望他們深造以後回來。AI時代來了以後,中國希望能夠引進人才,但科技的發展不能總靠引進人才,應該自己創造人才,只有是教育強國,才能變成科技強國。在這個時代,中國如何能夠超前的在教育上多花點精力?現在很多科技成果不是從學術界出來,而是從產業界,比如校企合作已經不能快速地解決中國教育的問題。任總:因為我們是一家企業,企業的屬性就是創造商業價值,學校的屬性是探索人類的未來。學校在做“0-1”的研究創新,“0-1”失敗了並不要緊,它培養了一大批人才。人才踩在先輩理論基礎上一步步攀高,就會創造出新的未來。企業是把學校創造的理論變成工業的現實。我最近見了一個偉大的企業家,他講我們國家的水輪發動機在世界是先進的,渦輪式、衝擊式的都是先進的,但原創發明都是奧地利、法國、美國等西方國家的。包括中國的火車、輪船、紡織機械,原創發明基本都是西方的;微積分、幾何學都是西方提出的。大學其實是研究探討“0-1”。中國也會追上來,提供原創的。我舉個例子,全世界做得最好的氣象模型竟然是我們公司一個22歲的年輕人提出來的,這個氣象模型是利用歐洲氣象衛星的氣象資料做出的。他把整個宇宙作為風洞,把地球作為模型。聽很多人說用這個氣象模型預測糧食產量、發電量、颱風的精準路線……。所以,中國可能也會有原創的。當然高壓直流輸電整個系統都是原創的。包括星閃傳輸的架構設計都是世界級發明。我們公司還有一名22歲的俄羅斯女孩發明了新的餘數演算法,可能改變我們AI晶片乘加器的實現結構,提高晶片能力,但現在沒採用。為什麼,我們曾經發明的晶片經歷了六、七年還沒有投產,我們不能重新再換一個架構。所以,教育的目的就是教育,企業的目的是商業,混了以後我們就倒退了。4、提問:我來自匈牙利,馮·諾伊曼就是我們匈牙利人。我們在國際社會上也參加各種比賽,聽到您的想法之後,我有一個觀察,在AI時代,AI的成功對我們來說是最為關鍵的,最為關鍵的一點是找到最有才能的學生,不管是高中生,還是大學生。所以我要說感謝華為的支援,支援我們來找到這些有才華的年輕人,因為提出問題和解決問題的思維在今天的AI時代是最為重要的。任總:匈牙利是一個偉大的國家,不僅是偉大科學家的搖籃,也是偉大政治家的搖籃,美國很多政治家、金融家就是匈牙利人。中國有很多制度創新,推動了今天的繁榮。中國在改革開放之前是一個封閉的世界,改革開放我們引進了許多優秀的文明成果,文明並沒有衝突,而是促進了許多創造,中國經濟實現了井噴式發展。幾百年前輪船、火車、鐘錶……非常多都是歐洲發明,甚至小國發明的。這些東西進入中國後,促進了我們的發展。我們與世界各個國家的朋友交流,以及與你們青年交流,傳遞我們的思想聯接。我們就是交個朋友,互相認識。我們渴望與世界交流,知曉全世界的文明和文化,能創造各個地方需要的東西。5、提問:任總您好,我是來自香港中文大學(深圳)的老師。此前我也參加了近十五年的程式設計競賽,最終選擇加入學術界,而不是工業界,因為我想為社會做貢獻,尤其為培養下一代的競賽人才、推動技術發展做貢獻。但我深深感受到,現在的科研,無論是在算力還是資料上,都急需企業和學校密切的合作。比如這次冠軍杯的題目就來源於工業界,取材於大模型AI時代。而冠軍是畢業於浙江大學,現在佐治亞理工學院就讀的一名博士生。所以,我覺得這次的比賽和最後的結果是很好的學校、企業合作的交流典範。請問任總,在新時代的環境下,針對來自海內外競賽人才,尤其是青年人才,您希望華為在未來提供怎麼樣的幫助?達成怎麼樣深度的交流、合作,來促進新的成果不斷產生?任總:我認為,每個人的人生有不同的道路。有人摸高,有人摸低,都是社會貢獻。也會有一些大學生是在做工人,做新時代的“工人”。三年前我們招了三千多名邊遠地區的本科畢業生,經過三年培養,在我們公司授予專科認證,做晶片生產和精密製造的工人。以後對“工人”這個名詞有新的理解,一些精密工業的生產人員,需要受過高等教育。大學生可以做“工人”,是高等教育將來的一個責任。當然,我們也需要一批人去摸高,摸到世界,甚至摸到宇宙,摸到人類的未來。人需要努力,不同的人走不同的道路,不是每個人都要去摸高,因材施教是很重要的教學模式。但是你能摸高,就不要去摸低,就不要走商業化的道路,你總有一天能摸到真理。有一天你爬高爬不上去了,就從“喜馬拉雅”往下走,沿途都可以“生蛋”,下來“種地”、“養牛”、“養豬”……,你絕對是好漢,從高往低打是容易的。我鼓勵當今的青年,有可能摸高的一定要走到最高點。Meta給幾個青年人每個人上億美元的簽約金、千萬美元的年薪,中國網際網路上沒有多大的聲音波動,為什麼?不羨慕了。現在國內一大批創業者,能力非常強。七、八人合作做一個公司,二、三十人合夥,股份全是他們的,做好了想拿多少拿多少。中國青年的創新公司非常多,三、五年或者五至十年,中國會發生天翻地覆的進步。機器人領域,中國有百萬青年在做,剩餘資本在投入力量推動訓練他們,不管商業上是成功還是失敗,數百萬優秀的青少年成長起來了,這對中國工業現代化、農業現代化、科技現代化……是有好處的。他們是中國走向現代化的中堅力量。中國青年人沒有羨慕別人的機制了,中國的機制也就形成了。海外留學回來的人也很多,跟自己同學一結伴就創業了。青年已經不羨慕別人了,就羨慕自己,趕快自己把這個事情做出來。最近小鵬機器人出來走“貓步”,大家開始不相信,說裡面是個真人。小鵬在發佈會上當場拿剪刀剪開機器人的外皮,裡面都是“鋼鐵”。機器人的產業也發生了很大的進步,這些小公司都很厲害,代表了未來的世界,展示一個未來世界。做真正的“人”還很難,腦的能耗比、皮膚的神經密度……。這個世界總要有人向未來探索,人類社會就是從一次又一次的失敗中成功起來的。中國三、五年後會有較大的進步。中國強大了,有利於世界繁榮的。6、提問:任總你好,我是本次比賽的參賽選手。我本科畢業於浙江大學,現在佐治亞理工學院讀博士二年級。我是剛剛那位提問的教授的學弟,我想繼續就他剛剛提問的問題做一些探討。想問任總,如果您回到20歲,您會怎麼規劃您職業生涯的前十年?我知道任總您作為一個企業的管理者,會考慮青年作為一整體的力量要往什麼地方用力,我現在更想問的是如果作為獨立的青年的個體,您會覺得應該怎麼規劃職業初期的發展?謝謝!任總:我回不到20歲了,上帝沒有給我通行證。我不能假想20歲幹什麼。你們現在是20歲,要隨著時代潮流去衝浪,敢於走在潮流最前面是最重要的。不要在乎是不是有錢,不要在乎自己的青春會不會犧牲掉,不要把指標看得很重,應該看到你們造福人類未來很重要。孟德爾發現的基因就是沉寂了一、兩百年,人類才開始對基因的研究。大家知道基因將來對人類有多重要,當時發現者有多可憐、多孤寂。所以,不要在乎誰選擇什麼,也別在乎你的同學、朋友選擇什麼,在乎適合自己的,只有自己瞭解自己,選擇什麼職業努力進取,不成功也沒有關係。這個世界大多數人是不成功的,在不成功的道路上也充滿了學問,通過不成功對大量假設都試驗過了,假設試驗過就是你積累的巨大財富。7、提問:任總,您好!我來自北京交通大學,現在大三。在今年ICPC巴庫的總決賽中我獲得了世界第三名金牌。非常感謝華為公司的支援,在這裡想跟任總探討一下關於個人發展的問題。剛才提到現在是AI的時代,這個時代是快速發展的,我未來將前往北京大學電腦學院攻讀博士學位,師從謝濤老師。我現在也初步接觸了一些科研工作,尤其是發表論文提出一種新的思想,因為在前沿探索,難免會遇到一些質疑的聲音。打ICPC競賽或者人生中會遇到很多質疑和不被看好的聲音,華為在歷史上也有過這樣的時刻,想問任總如何看待這些聲音,以及如何在這些時刻中打破質疑、不斷前行的?謝謝任總。任總:在質疑中前進是很正常的。很多重要的科學突破,剛開始都面臨質疑的,比如傅里葉提出任意涵數可用三角級數表示,未被巴黎科學院接受;希格斯預言玻色子存在的投稿被拒;哥本哈根詮釋的不確定性原理被愛因斯坦反對等等。華為在產業發展過程中推動5G的Polar碼和Massive MIMO、光領域的星座圖整形、多鏡頭手機拍照……等,都曾經面臨過質疑。要突破就要敢於迎接挑戰,大膽創新。國鐵正在鐵路上試驗新的5G-R無線調度系統,450公里時速的高鐵,使用5G-R來承載無線的調度,這個5G-R共生雷達即時檢查線路安全、高速運轉列車的輪軸安全,是一個大踏步的進步。大家知道,中國的多載火車一列火車拉3萬噸煤炭,是無線電調度的。無線電以前用GSM-R,控制火車間隔,能夠控制每列兩萬噸的載貨量的火車,密集地往秦皇島運。將來要升級到5G-R,能夠支撐上萬列時速450公里的火車、3萬噸貨車的運行。大家知道現在每天調度的高鐵是一萬多列,而且通過每一個點都是計算點,這麼龐大的鐵路運輸網路,人工智慧是怎麼調度指揮的。12306系統的核心技術帶頭人曾經是一個小姑娘,她是時代楷模,把12306打造成全球訪問量和交易量領先的超大型即時票務系統。中國網路越來越複雜,還有貨運網路,這些亟待用非常尖端的數學來解決複雜的難題,你可以把你的學術方向具像化。中國每年新增八千多公里的鐵路,未來中國鐵路里程有數十萬公里,是世界上最長最複雜的鐵路網。未來你們成為中流砥柱的時候,中國可能有30-40萬公里幹線軌道,還不包括城際鐵路、地下鐵路。這麼密集的交通網路調度、倉儲管理、裝貨管理、協調管理……,這是多複雜的科學,需要很厲害的數學博士解決這個問題。如果你來自於交通大學,交通亟待解決的問題就是非常複雜的問題。提問:非常感謝任總。不過我是電腦專業,未來會在人工智慧上做一些探索。任總:高鐵的日常維護、高速運行中的列車安全監控無一不是多模態的人工智慧。12306的票務系統在節假日時間段裡是中國最大的網際網路,已經難以承載假期高峰這麼大的流量了。鐵路製造、建設、運輸系統也依賴於電腦資訊網路,人工智慧也要具象化。8、提問:任總您好!我是來自北京郵電大學的教練,我帶了七年的北郵最好的競賽學生,今年也加入了華為,現在在數通部門工作。我的問題是在您看來通用人工智慧未來多久能夠實現,如果能夠實現的話,很多專業和崗位都將被人工智慧取代,未來中國的年輕人該怎麼去在大學當中選擇專業和方向?我們家的小孩明年也要參加高考了,很想聽一聽您的意見。任總:對於通用人工智慧,美國和中國在人工智慧的追求方向有所不同,美國在探索通用人工智慧AGI和超級人工智慧ASI,解決人是什麼、人類社會的未來是什麼,他們想完整地解決一個問題,這個時代還需要一個認識過程。而中國是在研究解決怎麼做事,創造更多的價值,解決發展問題。城市的安全、公共教育衛生的進步、礦山生產無人化、水泥生產無人化……,煤炭工人打著領帶、穿著西裝、戴著戒指上班,這就是現在的具像化。想像灰塵滾滾的礦山、極度嚴寒的礦區、極度炎熱的工地、極度高海拔的工場將來生產無人化了,會有多壯觀。無人化富餘出的員工怎麼辦?要發展再教育工程,例如實行學券制,給下崗人員一些學券補貼,把一些已經空著的學校、工廠變成職業學校,對下崗人員進行職業再教育。黨的十二大提出提高全民族的教育文化素質,今天中國面臨提高全民族專業素養水平的時段。過去我們的職業教育大多從初中生分流建專科學校,初中生年紀太小了,不能真正掌握資訊學。現在連解放軍戰士都在大學生化,先進武器不是文化低的人就能掌握的。大量無人化以後,可能會導致有一些人沒有工作。但是從國家來看,總財富是在增加的。比如一個工廠,有人的生產是100,無人時生產120,把這些富餘出來的人員,實行再教育,再上崗,轉到具體化的工作中。因此,我們會面臨著很多崗位的人員精簡,國家通過再教育工程把這些人接下來,轉成國家需要的人才培養上去,因為人工智慧帶來國家總財富增加。現在軟體程式設計大家都說是需要人的,隨著大模型和智能體技術在軟體開發中的廣泛應用,AI輔助電腦軟體程式設計已經釋放了約30%的軟體工程師的工作量,未來可能達到60-70%。為什麼無人化進展速度不能快呢?還是要慢慢來,要使社會結構發展穩定。所以,人工智慧帶來的社會好處是總財富增加了,怎麼分享這些財富?怎麼重新造就一些人再上崗呢?這就是新的課題。9、提問:您好,任總!我來自普林斯頓大學的博士生,現在做的科研方向是人工智慧大語言模型。我想問的是學術界常常面臨的一個問題是計算資源比較有限,我知道華為最近幾年在某些關鍵器件受到了某些限制。在這種長期資源受限的處境之下會怎麼克服、怎樣做出下一步的選擇呢?謝謝!任總:我認為以後是算力過剩的,不是你想像的算力不足。建數千個、數百個大模型都是正確的探索。現在大模型大到什麼程度,需要多少算力?華為在解釋超節點的時候講到了950、960、970,但我們需要多少個“970”,970在那兒能用?需要多少台,叢集怎麼連接。這是一種線性技術推演,是一定能實現的算力假設。但需求在那裡,我們還沒有能力很好的預測和推演,需求是不是一種線性結構,萬一是非線性的呢?因此,算力過剩的時代一定會到來的,做模型的人不要擔心,模型怎麼能夠對社會有用,也不是你要擔心的問題。模型面向千行百業的應用訓練和推理,將來能不能產生商業應用,又是另外一些人來做,就是行業應用工程師。網上經常有人說華為不是搞科學的,我們本來就是搞技術的。我們叫華為技術公司,不是華為科學公司。科學是你們研究的,我們是應用科學技術。但是我們公司內部把一些人叫“科學家”,是一種職務分類。並不對標社會標準,只是一個專稱代號,不必較真。所以,你們搞理論走科學道路,不要擔心你的科學會不會得到社會應用,如果總擔心社會應用,你就不是科學家,而是應用專家。從事理論是偉大的,因為理論是想出來的、推理出來的,所以這些人很少的。你們想一想傅里葉變換、拉普拉斯方程、麥克斯韋方程……有多難,它是數學推導和物理直覺創造出來的“空想”。把方程都描寫出來,當時他們怎麼知道,這對人類社會這麼有用。我們在工業上做好,怎麼尊重原創,這就是我們和歐洲、美國怎麼解決好關係的問題。10、提問:您好!我來自ICPC墨西哥,我在墨西哥灣大學工作。您可能也知道在墨西哥、在北美洲第一次有女性總統。我們現在也給女性參賽的選手提供越來越多的機會。現在我們這個區域的國家已經有大概1/4或者1/3的女性選手參加了,想瞭解關於女性參與的看法,是不是要鼓勵女性參加這些科學技術領域呢?我自己個人的故事也跟這個相關,我來自這樣的一個家庭,奶奶祖母這輩過的很苦,不太能上學,是自己學會認字的,因為她自己非常有決心,現在我的小女兒也在學工程技術類的領域。這也是我自己個人的故事。女性的參與需要依賴家庭的支援,您是一個偉大的企業家,想瞭解一下您的看法。任總:墨西哥這個國家是非常偉大的,除了瑪雅文明外,中國的玉米、番茄、辣椒、紅薯……都是從墨西哥引進的。如果沒有墨西哥這些物種,幾百年前中國不會有這麼多人口,因為中國自己的農作物養活不了這麼多人。所以,墨西哥是偉大的。墨西哥瑪雅文明的時候,女性的地位是低的,因為它是重體力勞動。瑪雅人在比賽球時是臀球,是用屁股頂進石環的,女性沒有這個體力。現在電腦時代,都是纖纖細手敲鍵盤,女性不比男性差。現在中國軍隊有不少女兵,有些還開重型殲擊機。看到20多歲小姑娘在航母上開殲擊機著艦的時候,是十分敬仰她們的,她們多偉大。吳健雄就是女性,她用實驗證明了宇稱不守恆定律。所以,男性和女性在電腦時代沒有本質區別,因為不是重體力勞動,如果是重體力勞動女孩子幹不過男孩子。在輕體力勞動中,腦力勞動中兩者沒有本質區別。所以,拉丁美洲更多婦女參加創造性工作應該是偉大的。而且世界上物質資源最豐富的就是拉丁美洲和非洲,沒開發,有大量地下寶藏。11、提問:任總您好,我來自俄羅斯下諾夫哥羅德國立大學,我想說一下華為和ICPC不同的情況,華為的挑戰賽給我們提的挑戰是非常接近實際的應用場景,讓我們ICPC的選手去解決,其中一個難題在前兩天已解決。如今這類形式的挑戰賽很受歡迎,你們也會經常組織這樣的挑戰賽,我的問題是,未來這樣的挑戰賽可能需要捲入更多的專家和科學家,讓我們的挑戰以後會越來越跟實際的工業場景相關嗎?AI時代您怎麼看?因為我們有可能需要AI輔助去解決這些挑戰。謝謝!Veronika Soboleva:他是俄羅斯ICPC全球總決賽冠軍的教練。任總:我們與ICPC接觸也是一個意外,我和Nika小姑娘是在莫斯科河畔喝咖啡認識的,那時候她是ICPC的總監,我們從而就擠進了ICPC組織。後來我們跟ICPC加強了合作,是你們幫助我們有了一個認知世界的窗口。同時對你們打開了一個眼睛。為什麼俄羅斯連續多年都有ICPC的冠軍獲得者,而且為什麼Google每年都用六倍的薪酬把你們挖走?當然,除了新西伯利亞大學,還有聖彼得堡大學、ITMO和下諾夫哥羅德大學等。俄羅斯在理論上的研究是非常有領先基礎的,世界上數學發達的國家很多,俄羅斯、法國、美國……都是。美國是以移民為主的數學;法國是路易十四、拿破崙主張數學立國;俄羅斯是彼得大帝、葉卡捷琳娜女皇引進……當然還有很多國家數學也非常發達。我們認識你們國家大概是在二、三十年前,我派人組建莫斯科研究所,讓他們從解決可靠性模型開始。我們去的人說俄羅斯硬體體積太大,我說可靠性不完全是硬體,軟體的演算法就是數學,數學沒有重量。我們從這點認識到俄羅斯在理論上的極大意義,所以我們加大了跟俄羅斯親密的合作。而且俄羅斯在數學、物理……很多理論科學上很先進,所以我們在俄羅斯就有了一定規模化的發展。我們尊重每個國家的人才、技術,我們在不同國家都有機構來合作發展。12、提問:我來自羅馬尼亞,布加勒斯特大學,我們的大學和華為的合作非常好,合作擴展的一個障礙是華為在羅馬尼亞沒有工程組織的辦公地點或者辦事處,華為會不會在羅馬尼亞建相應的研究所或者開發機構?這是總部的決定還是本地的決定?任總:羅馬尼亞是一個非常偉大的國家。東歐國家的創造性也很強大。羅馬尼亞有深厚的數學競賽傳統,發起著名的IMO國際奧數。羅馬尼亞曾經對中國輸出過石油工程技術,中國早期在石油勘探技術學習兩個國家:一個是羅馬尼亞,一個是亞塞拜然,那時石油勘探還是模擬技術。羅馬尼亞是歐洲現代石油工業的發源地之一,並且在石油勘探的過程中,為防止石油枯竭後怎麼辦,發展了石油勘探裝置製造工業。90年代以後,中國轉過來向美國學習數字石油勘探技術,中國的勘探發生了很大的進步。羅馬尼亞在原創時期對中國工業的進步發展作用是極大的,我們還是堅持和羅馬尼亞加強合作。歐洲在法律許可的時候,我們還是要加大在歐洲的發展。13、提問:我是一個大學本科生,現在大四,來自於印度尼西亞雅加達。我之前聽說,特別是教我的教授,談到了AI技術和AI應用在印尼的發展。教授告訴我,在印尼AI的重點更多的是利用現有的技術,而不是尋找新的技術突破。我個人有可能未來會進一步深造,所以想問一問任總,您對這個怎麼看?有沒有什麼建議?或者有一些話想跟我們這些年輕的選手說,特別是當我們想要在技術領域進一步深造、在技術領域工作的,有什麼建議和想法?任總:我贊同那個教授的講話,你們最緊迫的不是在這個世界爭奪算力和大模型的世界領先,而是強調“應用”領先,這是適合你們國家的國情的。比如,印度尼西亞有大量的港口,船舶自動化、港口自動化是急需得到人工智慧的方式。現在你們在船舶、港口的應用已經很發達了。第二,你們的島與島之間,間隔五六十公里,建立完整的無線電通訊也是很容易的。中國的北斗衛星與華為技術結合起來,在地球上的定位是釐米級精度,是適合你們的。你們船舶靠港口,以前要用纜繩等很複雜,現在一靠近電磁,就把它吸到岸邊,系泊簡單多了。人工智慧對印度尼西亞的工業起飛一定會起到很大作用。包括農業上怎麼應用好,現在中國有些地方農田種地無人化。14、提問:我是來自白俄羅斯的教授。我之前參與了一些項目,未來可能五年之後有一些地方是沒有AI的,想問您,有沒有一些例子未來根本不需要AI?因為對於有些學生來說,特別是學數學的,有可能他們完全不需要AI的幫助,自己做事情就可以了。任總:白俄羅斯在熱工理論與技術上是非常偉大的,發展了先進的熱管和磁流變拋光技術,因為晶片一定要解決熱的問題。現在一些尖端科學領域,之所以不受制於美國,白俄羅斯在熱理論上起到了很大作用。晶片最大問題是散熱問題,熱散不出來,晶片的效力就不能發揮,這些都是非常尖端的科學技術與工程問題。白俄羅斯存在著巨大的發展機會,AI對白俄羅斯是有用的。但是AI重在應用,不重在發明,發明AI只是一家IT公司,應用AI是會強大一個國家。IT公司對人類的貢獻就2%, AI在產業上的貢獻會佔到98%,例如駕駛、礦山開採、煉鋼、水利、玻璃、醫療……,它貢獻的價值巨大。剛才我講到洗煤精度提高0.1%,0.1%乘以40億噸,你算一下是多少?提高高爐的冶煉能力1%,中國10億噸鋼,消耗幾十億的煤炭,這又是多大的量?所以,人工智慧應該是無處不在,如何去應用它,是主要的課題。15、提問:我在印尼出生,現在在多倫多大學求學。馬克斯·普朗克創造了量子力學,在西方很多國家不僅僅在談AI,也在談量子計算。現在量子用在加密領域,同時還有量子晶片,這些都是前沿領域。量子晶片能夠打破所有的加密軟體,現在量子晶片不是足夠的穩定,不能有穩定的結果。但是近期的未來,在經過大量的研究之後我覺得量子的進步是不可避免的,所以我很好奇,中國在量子晶片上的想法,是不是華為關注的領域?未來華為會不會想在量子晶片的競爭中取得勝利?任總:感謝你,你是辛頓的學生,多偉大!諾貝爾獎獲得者傑佛瑞·辛頓是深度學習之父,理查德·薩頓是圖靈獎,都是人工智慧。量子科學遲早是要突破的,量子用於電腦一定能實現的,尤其在特定的計算會帶來巨大的優勢。量子電腦的研究是人類的命題、國家的命題,華為公司無法承擔量子研究的問題。但是量子電腦出來了,我們可能會購買。至於量子破解世界各種加密系統,到那時再“兵來將擋”。包括核聚變,有人說“核聚變一定能成功”,我相信,但是什麼時候?我不知道。核聚變如果成功了,所有能源革命都改變了。難道今天不建發電廠了,等著核聚變成功?所以,你看今年還在大規模投資電力系統建設。量子計算一定是會成功的,人工智慧未來一定會怎麼樣,我們不知道。不能因為有那個未來,今天就不去做其他方面的努力。16、提問: 您好!我來自於日本,之前在日本東京工業大學求學,現在工業界工作,非常感謝有這樣的機會在這個非常棒的地方聚在一起,非常感謝華為提供這樣的機會。您剛才提到現在通訊技術的快速發展,就這個展開問一問。我記得在疫情期間,大家都是遠端工作和學習,都依賴於電信技術工作學習,又恢復到現在的生活。大家能夠聚在一起,能夠在一個地方共同工作。我也同意人與人之間當面的互動比電話會議效果要好很多,我也認為像ICPC的大家庭,所有人聚在一起解決同一個難題,這也是非常好的安排和想法。這對於人與人之間的連接非常重要的。我的問題是對於未來十年都會是這樣的嗎?華為喜歡這種面對面的溝通,還是通過先進技術的發明創造?例如華為的技術發明創造,大家又重新回到遠端的連接,還是您更加傾向面對面的連接?任總:當年托夫勒寫《第三次浪潮》的時候,講的就是遠端工作和遠端辦公。我當時年輕不太理解,是這樣嗎?今天證明是這樣。即使今天我們聚會了,也只佔到千分之一的時光,大多時間還是網路溝通。如果不是網路辦公,我們公司很難生存,因為我們沒有這麼大一個物理性的場所。我們成立一個組,這個組在那?在那些國家?不知道,只是給了一個任命,有工號就上了一個連接,這個連接就是群,他們的編碼由時差滾動著不斷地改變。疫情加速了網路辦公的普及,但是物理辦公不會消亡。大家定期聚會喝杯咖啡的可能性有沒有?有,成本。遠端網路的潮流不會改變,我們渴望回到面對面交流,機會有的,但是少。物理性的大學重要,網路教育的價值重要性一天天的顯現出來,對於邊遠地區,特別是亞非拉邊遠地區的天才崛起,會起到作用。無線電是波波夫發明的,機翼理論是茹科夫斯基發明的,俄羅斯有很多發明,只是沙皇保守不宣佈,導致大家不熟悉。瓦特並不是什麼教授,最初是蒸汽機的修理工,法拉第最初是印刷廠的裝訂工,他們仍不失世界級的偉大。所以,將來不拘一格選人才,網路知識的擴散給很多人才提供了展現頭角的機會。網路肯定是重要的,面對面是需要的,我們還會繼續支援競賽的獲得者有機會聚會一次,但不一定是上海,也有可能是其他地方。Veronika Soboleva:ICPC是一個大家庭,大家庭當然要聚一聚的。我們有全球範圍內全年幾十個不同的活動,華為安排的活動是其中之一,我們也非常感謝華為的安排。17、提問:您好!我來自德國。過去幾天甚至之前我都聽說很多AI研究相關的新聞,我對量子計算和通訊也是感興趣的,所以我想瞭解AI研究的優先順序對華為來說有多高?和其他領域相比優先順序有多高?有多少的研究資源會從其他領域遷移到AI?任總:人工智慧最早是圖靈。諾貝爾獎獲得者辛頓,我曾見過,他在八十年代就提出來了,但是世界沒有響應。最早提出人工智慧怎麼用的,就是德國工業4.0,華為未來三到五年內研究的東西相當於德國的工業4.0。人工智慧在華為公司地位是重要的,但當前最重要的是CT,就是無線電、光通訊、核心網、資料通訊……。為什麼?將來人工智慧的感知與控制,要把資料傳到幾千公里外,必須要有一個先進的網路。AI要真正產生出價值,需要全社會的協作,發揮各自的優勢。沒有網路的算力是資訊孤島,孤島化的AI無法實現真正的智能。18、提問:我在新加坡國立大學上學,非常感謝今天的活動和跟我們交流。美國從全世界挖了很多頂尖的人才,甚至是一些小國,美國也派人去把人才挖回去。我認同這種正向冪律分佈,像電腦科學,或者學界、企業家都認為。這些學生能夠推動產業和社會的發展,因此我認為對於企業而言,要成為最好的企業,就要搶奪這些人才。但這些人,這些好的學生選擇權也很大,最優秀的人可能去了金融公司做避險基金,因為他們那裡拿的錢更多。您是不是同意這種說法?首先,要從全球吸引人才是不是重要?中國的計畫是什麼,華為的是什麼,如何去搶奪這些最優的人才,儘管他們有各種各樣的選擇,但他們要到中國來,不管是有語言、文化的差異,面臨這樣的挑戰,他們還是願意到中國,到華為來,中國有怎樣的計畫?華為有怎樣的計畫?任總:美國的土壤是適合種莊稼的,大量人才到美國成長這是好事情,並不是壞事情,包括中國的很多青年到美國去,在美國生根發芽,參與創造一些新的科技文明。Google創始人就是俄羅斯人,他們創造的Android,全世界不是都在享用嘛!對中國也是受益的。沒有說蘋果、微軟、輝達、英特爾……,不給中國創造價值,也在創造價值。美國只是不准華為使用含美國元素的東西,並不等於不准中國用,也沒有不准世界用,所以全世界人才到美國創造一種技術文明是有益於世界進步的。至於他個人的才能在美國發揮了價值,享受了美國的生活,這也是可以理解的。美國創造的科技文明,對世界不是有害的,是有益的,我們也要支援美國科技文明的發展,因為美國創造的科技文明,關起來不去給別人用,那美國怎麼賺錢?他賺你錢的過程中,同樣促使你的產業進步。如果沒有歐洲的文明,我們怎麼可能有汽車、火車、輪船……?美國只是制裁華為,中國大多數公司沒有被制裁,還是可以用美國的技術、工具、生態、儀器儀表、晶片、流片的……,這對中國的產業發展是有好處的。我們也渴望全球化,能享受站在巨人肩膀上,我們的自力更生是被逼無奈的。全要靠自己,是不敵全球化的,我們在許多方面落後國內企業使用的晶片至少一代……。中國相對落後,當然更需要崛起,也需要吸收一些人才。現在的環境已經比我們年輕時代好很多了。年輕人多幸福,多陽光,多有張力……。現在中國也有人才的土壤和機會了,很多青年也在這裡創業了,但是追趕美國的速度我們還是慢的。華為作為一個公司,容納不下太多人,養不活,說不定還得裁員。我們與ICPC的交流不帶有任何目的,並不是說“人才都來我們這兒”,但你們來這邊工作不一定能發揮你們的作用,因為天才需要一個平台。當然新加坡的飯跟我們的飯差不多。所以,從現在各種情況來看,中國要更加開放,要向世界所有文明國家學習優點,容納世界的文明進來,不能閉關自守。改革開放把國門打開了,讓世界的文明進來,並沒有產生文明衝突,文明疊加起來共同創造了一種價值,就是今天的新中國。開放使中國富起來了,但富成什麼樣呢?還不夠,中國的富要有質量,現在黨中央提出“新質生產力”,就是你要去“健身”,“肌肉”強一點,我們才能做得好一點。我們的產品要高品質,世界人民不就歡迎我們嗎?如果我們的產品走出國門質量不夠好,大家說中國產品不好,中國就沒有國際市場,中國發展也會受阻。我們公司曾經也是一個小封閉公司,關著門慢慢干,現在我們慢慢才打開門。從幾年前我在莫斯科河邊認識了Nika,通過你們又認識了七、八百人,這些就是紐帶,和不同國家間的紐帶,華為公司這個紐帶就開始了。數學沒有國界,理論沒有國界,你們發表論文我們看見了,我們使用;我們發表的論文,你們也看得見。我們交流的平台就是“黃大年茶思屋”這個網路平台,你們可以在網路平台呼叫一個有共同見解的人,一下子可能在冰島出現,通過全球化的科技網路平台完成交流。Veronika Soboleva:非常感謝任總鼓舞人心的發言,特別是不同文明的交融,這是ICPC堅信的理念。不管你是在那個國家出生,你都能夠成為ICPC大家庭的一部分,非常感謝大家。 (半導體產業縱橫)
記憶體漲勢超黃金,帶飛1400億儲存巨頭
9月起,儲存晶片價格漲勢兇猛,讓市場驚訝。與此同時,儲存產業鏈上的企業迎來業績爆發。國內“儲存一哥”兆易創新第三季度淨利潤暴增61%,市值也從年初的不到700億元增長至目前的超過1400億元。來自江蘇鹽城的創始人朱一明花20年時間布下的公司戰略棋局,迎來了收穫期。01 記憶體價格暴漲,“儲存一哥”站上風口“漲勢比黃金還快”,由AI需求引發的儲存晶片漲價風暴,正在蔓延全球。在儲存晶片瘋漲背後,一家國產晶片廠商成了“悶聲發大財”的贏家。很多人可能並不熟悉兆易創新,但從手機、汽車的儲存晶片,到模擬晶片,它的產品已覆蓋了普通人生活的方方面面。尤其是隨著消費電子產品逐漸告別“寒冬”,這家被稱為國內“儲存一哥”的晶片龍頭,再次站上了市場的風口。不久前,兆易創新發佈的2025年三季度財報顯示,公司單季度營業收入26.81億元,同比增長31.40%;歸屬於上市公司股東的淨利潤為5.28億元,同比大增61.13%。今年下半年以來,兆易創新股價不斷上漲。截至12月4日,其最新市值為1405億元,年內漲幅超過90%。兆易創新股價為何在近期迎來爆發?從大的市場環境看,隨著全球AI算力競賽趨於白熱化,三星、海力士等儲存巨頭將絕大部分產能押注在了更昂貴的HBM(高頻寬記憶體)上,海外儲存巨頭們的戰略大調整,給兆易創新等企業打開了市場“窗口”。晶片行業中,儲存晶片主要包括DRAM(動態隨機存取記憶體)、NAND Flash(快閃記憶體)和NOR Flash(唯讀儲存器)等類別。其中,DRAM廣泛應用於電腦記憶體,是市場規模最大的儲存晶片,它又根據應用場景分為多個類型,典型的就有DDR晶片和HBM晶片。DDR晶片廣泛用於PC、伺服器、資料中心及消費電子等領域,其中DDR3、DDR4晶片是兩代主流的儲存技術。HBM晶片有著高頻寬、低延遲的特性,目前主要應用於大模型訓練和高性能計算,堪稱儲存晶片行業皇冠上的“明珠”。巨頭們“轉舵”HBM晶片,直接擠壓了DDR4等成熟製程的產能空間,讓其產能急劇收縮。但是,隨著大量AI需求從雲端下沉到AI手機、AI眼鏡、AI PC等端側裝置,這些裝置需要更快的晶片讀取速度和更大的儲存容量,對DDR晶片的需求也在井噴。這種供需錯配下,巨頭們“看不上”的DDR3、DDR4晶片價格在近期暴漲。東海證券報告顯示,今年10月,常規的16GB DDR4晶片價格相較上月漲幅高達75.93%,常規的8GB DDR4晶片價格漲幅為30%左右,4GB的DDR3晶片價格漲幅達到41.66%。面對儲存晶片價格的漲勢,科技公司們紛紛開始搶購。據報導,華碩和微星等PC終端廠商正在現貨市場大量購買消費類DRAM。作為國內“儲存一哥”,兆易創新恰恰是國內這一領域產能準備充足的玩家。它主打的就是利基DRAM晶片市場,已經陸續推出DDR4、DDR3L及LPDDR4等系列產品。利基DRAM晶片不是電腦中頂級的16GB/32GB記憶體條,而是4GB、8GB這類容量較小、製程相對成熟的產品。這類產品利潤較薄,但在萬物互聯的時代,它們在智能冰箱、掃地機、汽車等智能終端裝置中是必不可少的。財報顯示,截至2025年第三季度,兆易創新的合同負債同比激增189%至2.19億元。市場對兆易創新的利基型DDR產品的需求正在大量提升。02 鹽城大佬朱一明的“闖關遊戲”兆易創新能有今天的行業地位,並非只憑趕上了市場風向的“運氣”。其創始人朱一明花了20年時間布下戰略棋局,帶領兆易創新完成了“三級跳”,支撐起它如今的千億市值。把時鐘撥回2005年,彼時剛從矽谷回國的朱一明計畫投身儲存晶片市場。不過,當時該市場幾乎已被三星電子、海力士、美光等國際巨頭瓜分殆盡,進入市場的資金要求高、技術壁壘極強。2005年,朱一明成立了一家名叫芯技佳易的公司(即“兆易創新”的前身)。他並未選擇與國際巨頭正面硬剛,而是另闢蹊徑,以SRAM(靜態隨機存取儲存器)作為切入儲存晶片市場的突破口。在實現關鍵技術突破後,公司逐步拓展至其他儲存晶片產品領域。2008年,芯技佳易進軍NOR Flash(程式碼儲存晶片),發佈了國內首顆採用SPI(序列外設介面)的NOR Flash。NOR Flash雖容量小,但具備隨機儲存、讀取快的特性,被廣泛應用於物聯網、汽車電子等領域。2010年,芯技佳易更名為兆易創新,並推出了512K至32M容量的NOR Flash。在三星、美光等巨頭逐步淡出NOR Flash市場時,兆易創新不斷推出產品,迅速在市場上站穩了腳跟,奠定了自己的業務基本盤。相關資料顯示,兆易創新NOR Flash產品的市場佔有率從2012年的3%一路提升,2024年在該領域全球市場份額約為18.5%,排名全球第二。對朱一明而言,公司發展過程中最驚心動魄的一步棋,是進軍DRAM業務,這也是如今兆易創新能接住AI時代紅利溢出效應的關鍵。當時,儲存晶片市場DRAM的市場規模遠超過NOR Flash,且國產化率不高,可以說是儲存晶片的核心戰場。2016年,兆易創新在A股上市後,就決定攻下DRAM這塊“硬骨頭”,並與國內企業長鑫科技簽署合作協議,共同開展研發。為此,朱一明在2018年還做出了一個大膽的決定:辭去兆易創新總經理職務,僅擔任董事長,親自掛帥出任長鑫科技全資子公司長鑫儲存CEO。目前,朱一明也是長鑫科技董事長。兆易創新與長鑫科技形成了深度繫結。要知道,行業中無晶圓廠模式(Fabless)公司的最大軟肋,就是產能不能自主。而兆易創新則可以通過長鑫科技代工製造DRAM產品。根據今年第三季度財報資料,兆易創新利基型DRAM產品(包括DDR4、LPDDR4)實現快速放量,第三季度收入佔比提升至30%以上。根據兆易創新公告,其從長鑫科技採購代工生產的DRAM相關產品,2025年預計交易額為11.61億元。通過與長鑫科技的代工合作,兆易創新獲得了DRAM的產能保障。在2025年這波儲存晶片“缺貨潮”中,其他晶片設計廠商還在苦求晶圓廠排期,兆易創新卻因為有了長鑫科技這個“兄弟”的產能支援,可以更加穩定地出貨。不過,業界的共識是,晶片行業有極強的周期性。如果一家公司只押注儲存晶片,也會面臨周期性波動的風險。2013年,朱一明決定跨界進入MCU(微控製器)領域。MCU,可以說是將CPU(中央處理器)、儲存器、定時器等核心部件整合在一塊晶片上的微型電腦。它與儲存晶片有著緊密關聯, 如果說MCU是指揮系統的“大腦”,那麼儲存晶片則是存放程式碼指令的“記憶”。這個思路很好理解:既然客戶買了儲存器,為什麼不順便把控製器也賣給他?在當時,這多少有些“不務正業”,但這讓兆易創新迅速切入了新的市場。進軍MCU業務後,兆易創新相當於同時打通了“儲存+控製器”的任督二脈,加深了兆易創新的護城河。目前,MCU已經成為兆易創新的“第二增長曲線”。財報顯示,2025年上半年,儲存晶片作為兆易創新的核心業務,實現了28.45億元的收入,佔總營收的68.55%,同比增長約9.2%;MCU實現營收9.59億元,佔總營收的23.11%,同比增速達到19.1%。03 押中端側AI,紅利還能吃多久?半導體行業發展史中無數個故事顯示,在晶片產品漲價後,往往緊跟而來的是殘酷的價格戰。兆易創新也需要手握更多籌碼,才能持續對抗行業的周期性波動。兆易創新目前吃到了儲存晶片需求和價格上漲的紅利。但它的DRAM業務目前在其總營收中佔比並不算高,目前其收入主要來源還是Nor Flash和MCU產品。它更需要重視的一個問題是,目前的儲存晶片市場紅利主要來源於巨頭公司產能轉移後,造成的市場“空窗”。一旦三星、海力士等巨頭的高端產能釋放完畢,或許會回過頭來重新擠壓利基DDR市場,而市場也存在需求轉冷的風險。接下來,兆易創新在技術迭代的同時,持續推進產能擴張,才有望實現真正的飛躍。對於DRAM業務,兆易創新的雄心不小。近期,公司在一次線上投資者關係活動上曾表示,“展望未來5年,對於國內30億~40億美元的利基DRAM市場,我們的目標仍是取得至少三分之一的份額”。兆易創新還在互動平台上表示:“2025年公司利基型DRAM業務營收有望超預期,達成同比增長50%的目標。今年下半年利基型DRAM收入有明顯增長,有望超越MCU業務成為公司第二大產品線。”當前,兆易創新正在加速自研DRAM的製程迭代,試圖向更先進製程突圍,提高在 DDR4和LPDDR4領域的話語權。 (芯師爺)
Anthropic啟動IPO!CEO自曝內部算力財務模型:不確定性圓錐!回應泡沫:增長肯定放緩,舊晶片價值快速下降!規模依舊有效
我們買的算力規模,是在“即便是第 10 百分位的悲觀情景下”,大機率依然付得起帳。YOLO式下注,風險旋鈕擰的太狠了。我認為勝率會在我們這邊。幾個小時前,素有“華爾街、矽谷超級提問者”的DealBook 創始人、紐約時報首席財經記者Andrew Ross Sorkin,與 Anthropic 的 創始人 Dario Amodei 展開了一場年末對話。這次採訪背景一方面是大洋彼岸已經處於聖誕前夕,但更重要的一面是,昨天,Anthropic被曝出已經啟動IPO籌備工作,計畫最快2026年上市,估值或達3000億-3500億美元。在此之前,則是 Transformer 架構和 Scaling Law 終結的爭議,以及 Gemini 3 Pro 模型的爆火,OpenAI  內部拉響紅色警報。這些事件的接連發生,讓此前甚囂塵上的“泡沫爭議”和接下來AI模型的發展走向帶來了新一輪的不確定性。Dario在爆出了自家的算力財務模型,他們內部稱之為一個不確定性圓錐。如果我有 80% 的毛利率,我花 200 億美金買算力,可以支撐 1000 億美金收入。但問題在於,這個“不確定性圓錐”實在太寬了,很難避免在某一側犯錯。此前,Dario 就曾表示,Anthropic 計畫在 2028 年實現盈虧平衡。而對於 AGI 的實現路徑,Dario 對於 Transformer 架構依舊保持樂觀:我仍然認為是 “規模化 + 偶爾的小修小補” 就足夠了。對於業界一直擔心的GPU晶片的折舊周期,Dario 回應道:舊晶片的價值會快速下滑。我們在建模時,已經默認舊晶片價值會快速下滑,同時也假設晶片效率曲線會持續高速演進。對於自己經常發出警告這件事,Dario對美國AI監管隱隱表達了不滿:現在美國監管已經分成了兩個世界,應該讓真正最接近AI技術的人來發聲。對於自己曾說過的“90%的工作會被AI替代”言論,Dario說,那只是半句話,下半句則是——那怕 AI 完成了 90% 的工作,而不是 100%,人類的“剩餘 10%”反而會被放大 10 倍,有時候甚至需要 10 倍的人,去完成原來 100 倍產出的事情。問題不在“會不會替代”,而在“企業願不願意更多選擇創造新價值,而不是只做極致降本”。以下是這次採訪的整理內容,大家enjoy!泡沫存在:接下來速度一定會放緩 但有些公司卻在YOLO 式下注主持人(Andrew Ross Sorkin):今天下午的重頭戲從 Dario 開始。他是當今人工智慧領域最具影響力的人物之一,是 Anthropic 的聯合創始人和 CEO,這家公司以 Claude 模型聞名,是歷史上增長最快的科技公司之一,現在更是同時獲得了三大科技巨頭——亞馬遜、微軟和Google的支援。他比大多數人更早進入這個領域,早年在 BYU 做研究,後來加入Google,又成為 OpenAI 的早期成員,主導了 GPT-2 和 GPT-3 的研發。歡迎你來到現場。Dario Amodei: 謝謝邀請。今天可以聊的話題很多,包括——我們是不是正處在一個 AI 泡沫中?但我保證,我們會慢慢談到那個問題。主持人: 那我就直接問那個一開始提到的問題吧。你也承認,2014 年沒人想到 2025 年會走到今天這個程度。現在這個行業吸納的資金規模,幾乎代表了美國當前 GDP 增長的主要來源之一。我們是不是正處在某種泡沫中?是不是在過度投資?Dario: 這是一個非常複雜的問題,我必須把“技術本身”和“經濟層面”分開來看。從技術角度看,我非常堅定,我可能是最樂觀的那一類人之一。 但從經濟層面看,我確實有擔憂。即便技術真的兌現了承諾,生態裡如果有人在節奏上稍微踩錯一步,後果會非常嚴重。先說技術這部分。之所以我對技術進展並不太驚訝,是因為我和幾位後來成為聯合創始人的同事,最早系統性地總結過 AI 的“Scaling Law”——也就是只要你不斷加算力、加資料,在少量結構微調下,模型能力就會持續提升。像推理模型、測試時算力,本質上都是非常小的改動。我已經跟蹤這個趨勢 12 年了。最震撼的是:你用這樣極其簡單的方式訓練模型,它會在幾乎所有領域同步變強——程式設計、科學、生物醫藥、法律、金融、材料、製造業,這些正是整個經濟的核心價值來源。只看 Anthropic 自身,因為我們更偏企業級市場,我覺得更像一個“純粹的溫度計”。我們過去三年,收入每年 10 倍增長:2023 年從 0 到 1 億美元,2024 年從 1 億到 10 億,今年會落在 80 到 100 億之間。未來還會不會這樣漲?我不知道。但技術確實在推動價值,經濟回報也正在兌現。 它一定會放緩,但依然會非常快。所以我對“長期終局的經濟價值”是有信心的。主持人: 但問題在於,現在有公司每年要燒掉上千億美元,你們也計畫投 500 億。Sam Altman 去年的規劃數字同樣驚人。這是一次超級昂貴的下注。這個帳到底能不能算清,還是更多是一種“直覺賭注”?Dario: 這就進入我剛才說的第二部分——真正的困境來自於:“經濟價值增長速度”的不確定性,與“資料中心建設周期”的滯後性之間,存在巨大張力。 這是擺在所有公司面前的真實兩難。我認為有些參與者是在“YOLO 式下注”,把風險旋鈕擰得太狠了,對此我非常擔憂。主持人: 誰在 YOLO?Dario: 這個我不回答(笑)。但你可以換個視角想:如果你站在我這個位置,連續三年收入 10 倍增長,很自然會去問:明年會怎樣?如果你非常粗暴地外推,下一年可能是千億美元等級——我必須強調,我完全不相信這個數字。但它是數學上的上限之一。如果你從更理性的企業客戶、具體場景、銷售路徑去拆,可能是 200 億、300 億。所以我內部把它稱為一個“不確定性圓錐”——一年後是 200 億,還是 500 億,極其不確定。 我只能按最保守的一側去做規劃,但這種不確定性本身就足夠令人不安。算力財務模型 不確定性圓錐實在太寬了Dario : 還要疊加一個現實因素:資料中心建設有很長的滯後周期,通常是一到兩年。這意味著我必須在“現在”,甚至幾個月前,就決定:在 2024 年初要買多少算力,去服務 2027 年初那個收入規模下的模型。這中間存在兩個強耦合風險:第一,如果我買少了算力,我就沒法服務所有客戶,只能把他們推給競爭對手;第二,如果我買多了算力,而收入又沒跟上,我就付不起這些算力的成本,極端情況下甚至會面臨破產風險。這個“安全緩衝”本質上取決於我的利潤率。如果我有 80% 的毛利率,我花 200 億美金買算力,可以支撐 1000 億美金收入。但問題在於,這個“不確定性圓錐”實在太寬了,很難避免在某一側犯錯。Dario: 我們自認為是一家相對克制、負責的公司。因為我們主做企業市場,我覺得我們的商業模式更健康,利潤更穩,也更謹慎。但如果你換成另一種模式,比如純消費者業務,收入來源沒那麼確定、毛利也不穩定,再加上企業家本身就是那種“偏愛 YOLO、偏愛大數字”的性格,那風險旋鈕就可能被擰得非常狠。只要存在不確定性,就必然存在過度擴張的系統性風險。 我們每家公司都面臨這個問題,再加上彼此之間的競爭壓力,甚至還疊加了與威權國家“國家層面的技術競爭”,整個系統都會被推著往前走。這種風險是不可消除的,只能被管理。 但我確實認為,有些參與者並沒有管理好這種風險,而是在進行不明智的下注。主持人: 你說到這裡,其實大家心裡大概也知道你在暗指誰。你曾對投資人私下說過,Anthropic 計畫在 2028 年實現盈虧平衡;而 Sam Altman 說的是 2030 年。我暫且按他的演算法來算:他需要在兩年內從 740 億美元等級的虧損,轉為兩年後實現盈利。這個在你看來合理嗎?Dario: 說實話,我不瞭解任何其他公司的內部財務情況,也不可能評價別人。我只能回到我們自己的計算邏輯,也就是那個“圓錐式不確定性”:我們買的算力規模,是在“即便是第 10 百分位的悲觀情景下”,大機率依然付得起帳。再糟也會存在“尾部風險”,這從來不可能為零,但我們在盡力把風險控制在可承受範圍內,同時又要確保我們在競爭中不被甩開。我們在訓練和推理上都很高效,利潤結構也不錯。我認為勝率在我們這邊。主持人: 現在市場上很多人開始討論所謂的“循環交易”,以前我們管這叫“廠商融資”。尤其是輝達,以及其他一些公司,直接入股 AI 公司,而這些公司隨後又用這筆錢去買輝達的晶片,相當於形成了資金閉環。你怎麼看?Dario: 我們也做過類似的交易,只是不是某些玩家那樣的大規模操作。我不講具體案例,只講一個“標準化結構”的例子,解釋為什麼它在邏輯上成立:假設你要建 1GW 的算力規模,買晶片、建機房,總資本開支大概是 500 億美元,使用周期可能是 5 年,也就是每年攤 100 億。如果你是一家年收入 80—100 億、處在快速增長期的公司,現在就讓你一次性掏 500 億,現實中根本不可能。那怎麼辦?大型廠商站出來說:“我先投你 100 億,佔 20%,你先用這 100 億覆蓋第一年,其餘的慢慢按收入滾動支付。” 如果你已經接近 100 億年收入,那這並不是一個瘋狂的賭局。資料中心一年建成,第一年融資覆蓋,意味著你只要在兩年後做到 100 億等級收入,就能跑得通這套邏輯。從結構上看,這並不違背商業邏輯。Dario: 真正的危險只發生在一個場景:如果你一層層疊加這種結構,最後變成“到 2027 或 2028 年,我必須做到 2000 億美元年收入”,那你就一定是在過度擴張。規模,決定了一切的風險邊界。一批晶片到底能撐過幾年?舊晶片的價值會快速下滑 保守押注者會活下來主持人: 這裡還有一個關鍵變數,幾乎決定了整個行業的“投資算不算得過帳”——晶片的折舊周期。你買一批新晶片,它到底是有效四年、五年,還是八年、十年?這個假設不同,整個行業的財務模型就完全不同。你怎麼看?Dario: 我們在內部做的是非常保守的假設。嚴格來說,並不存在一個固定、統一的“折舊年限”。晶片本身可以跑很多年,真正的問題不是“它還能不能用”,而是有沒有更快、更便宜的新晶片出現,並且你的競爭對手已經在用它了。 一旦出現這種情況,老晶片的相對價值就會迅速下降,甚至一年之內就會發生。現在不止是輝達,各家都在推新一代 TPU、GPU。我們在建模時,已經默認舊晶片價值會快速下滑,同時也假設晶片效率曲線會持續高速演進。我們在 Anthropic 的所有假設,基本都站在極端保守的一側。 結果是:在“幾乎所有世界線”裡,我們都可以活下來。當然,極端尾部世界線一定存在,但我只能為我們負責,不能替別人背書。我也完全可以想像,有些公司正在“自我欺騙”,建立在過度樂觀假設之上。主持人: 所以,市場上真正理性克制的,其實就你們兩家?Dario: 我不知道你在指誰(笑)。我真的不知道。ps:這裡小編猜測,所謂市場上真正保持克制的這兩家,一家自然是Anthropic,另一家90%的機率是指的 Amazon。(同樣瞄準的是企業市場,而且沒有過度囤卡。用排除法的話,只剩下 Amazon 和 Apple 了。然而Apple 算是大模型玩家嗎???不大會。)不卷C端!GoogleGemini強歸強,Claude清風拂山崗主持人: 那我們換個話題,聊聊模型本身的競爭格局。就在過去一周,矽谷內部幾乎“情緒失控”,因為某位你我都認識的人發佈了新模型,引發了巨大震動。Saraparay 去年也來過這裡,現在大家突然意識到,原本被認為“資料天生佔優、理應贏麻了”的 Google,可能真的開始發力了。 Sam Altman 內部甚至發了“紅色警報”郵件,讓所有人回到工位衝刺下一輪突破。在你看來,現在這些模型的真實排序是怎樣的?以及,這種“當下時刻的領先”,到底有多重要?Dario : 這是少有的幾個時刻之一,我真心覺得 Anthropic 選擇了一條不同的道路,是一件值得慶幸的事。 我們走的是企業市場路線。你剛剛提到的另外兩位玩家,本質上都還是以 消費者市場為核心,雖然也在做企業業務,但主戰場仍在 C 端。這也是為什麼會出現“Code Red”那種等級的內卷——Google 要守住搜尋壟斷,而 OpenAI 的核心陣地也在消費者端,這兩家是在正面肉搏。對他們而言,企業只是“第二戰場”。而我們過去幾年一直在 圍繞企業真實需求反向打磨模型能力,最先爆發的是程式設計,現在已經開始延伸到金融、生物醫藥、零售、能源、製造等領域。模型戰爭當然重要,比如我們上周剛發佈的 Opus 4.5,在程式設計能力上幾乎被公認為目前行業最強模型。但我們真正走的是“不同維度”的競爭路線,所以對這種你來我往的短期廝殺,依賴反而更低。某種意義上,我們處在一個相對“優越”的位置:可以持續增長、持續迭代模型,而不用天天發“紅色警報”。企業級AI很挑模型,遷移成本很高 專精能力會和AGI長期並存主持人: 那這些公司真正的“護城河”到底是什麼?如果有一天真的到了 AGI 等級,所有模型是不是都會趨同?誰還會在乎你用的是那家?是“記憶能力”嗎?還是人格差異?很多人現在就是那個新就用那個。Dario: 我只能從企業側講我的結論。為企業打造的模型,和為消費者打造的模型,在“性格”和“能力結構”上差異非常大。 企業模型更少追求“黏性與娛樂感”,更強調編碼能力、高階智力活動、科學推理能力。我也不認同“只要到了 AGI,所有東西都會收斂成一個形態”。你看看在座的所有人,都具備“通用智能”,但我們沒有變成同一種人。專精能力會和通用智能長期並存。 再加上企業側的現實因素:公司會形成使用習慣,會和某個模型建立長期關係。即便是在 API 這種“賣裸模型”的業務裡,遷移成本也極高。下遊客戶適應了某個模型的“脾氣”,提示詞、互動方式都深度繫結,切換代價很大。這意味著企業級 AI 具備長期穩定的商業粘性。通往AGI,“規模化+小修小補”足夠了主持人: 一個純技術問題:你認為,現在這種基於 Transformer 的架構,加上純算力規模化,本身就足以通向 AGI 嗎?還是說還缺“某個關鍵成分”?Dario: 我仍然認為是 “規模化 + 偶爾的小修小補” 就足夠了。這些修改之小,小到外界可能根本不會注意到,只是實驗室裡的技術迭代。我已經觀察這些 scaling laws 超過 10 年了。主持人: 那你的時間判斷呢?AGI 在什麼時候?Dario: 我其實不太喜歡“AGI”“超人工智慧”這些詞,因為沒有清晰定義。它更像 晶片摩爾定律式的指數曲線——模型會在所有維度持續變強:新模型比上一代程式設計更強、科研更強,現在已經常態化拿下高中數學競賽,正在沖大學數學,甚至開始 首次產生“全新數學發現”。Anthropic 內部已經有人對我說:“我現在已經不寫程式碼了,我只是讓 Claude Code 先打草稿,我負責修改。” 這種狀態,在過去從未真正出現過。 這個節奏只會繼續加快,沒有所謂“質變奇點”,只是能力持續外推,模型的智力不斷抬升,收入曲線不斷往後面加零。美國AI監管已經分成了兩個世界主持人: 你在(美)監管、就業衝擊這些問題上也相當激進。白宮的 David Sacks 曾公開指控 Anthropic 正在通過“製造恐慌”推動監管,從而進行“高階版的監管俘獲”,並且已經傷害了創業生態。你怎麼回應?Dario: 我還是那句話:不要把這場討論變成對個人或單一機構的攻擊。 我從 2016 年起就開始公開寫 AI 風險和治理的論文,那時候 Anthropic 這個公司根本還不存在,更談不上什麼“監管俘獲”。而且我們支援的幾乎所有監管法案,都明確為中小型創業公司設立了豁免條款。 比如我們支援的 SB53 法案,年營收低於 5 億美元的公司根本不在適用範圍內。 我們在這件事上非常謹慎。真正該討論的,不是立場對立,而是具體政策是否合理。Dario: 你可以拋出各種指控,但這些說法和現實完全不符,無論是和我們實際支援過的法律條文,還是和真實情況,都對不上。現在其實存在兩個世界:一邊是 Andreessen Horowitz 等人,他們支援一個超級政治行動委員會;你們這邊也在建構另一個超級 PAC,試圖用完全不同的方式去影響這個行業的監管。問題是,為什麼?你們看到了什麼,是他們沒有看到的?我還是想把討論維持在政策層面。我對這項技術的看法是:我能理解一些人的樂觀來源,但我確實擔心,有一部分人把 AI 視為類似網際網路、通訊技術那樣的技術革命,覺得市場自然會解決一切問題。放在過去那些技術浪潮裡,這種看法也許是成立的。但真正最接近 AI 技術的人,並不這麼看。如果你去問那些真正做 AI 研究、真正建構模型的人——不是投資某些 AI 應用的投資人,也不是自以為懂 AI 的技術評論員——你會發現,他們一方面對潛力感到興奮,另一方面也非常擔憂。他們擔心國家安全風險,擔心模型對齊問題,擔心 AI 對經濟結構的衝擊。 舉個例子,有人曾提出要在十年內凍結所有監管,或者凍結州一級監管,而聯邦層面又沒有統一框架。這種提案去年夏天就出現過,上周又嘗試了一次,結果再次失敗,因為它極不受歡迎。連普通大眾都清楚,這是一個全新而且極具力量的技術。我可能是對 AI 正面效果最樂觀的那一類人之一。 我寫過一整篇文章《Machines of Loving Grace》,我在裡面說,AI 甚至可能把人類的壽命延長到 150 歲。再往後推,當資料中心裡真的出現“天才之國”,我們將擁有一個比任何人類都更快做出生物學發現的虛擬生物學家;它可能把經濟增速推到 5% 甚至 10%。老實說,我對這項技術的樂觀程度,可能比很多自稱“技術布道者”的人還要高。 但一切如此強大的東西,都不可能沒有巨大的副作用。作為一個社會,我們必須提前思考這些代價。 如果你說未來十年都不去監管這種技術,這就好比你在高速路上開車,然後決定把方向盤拆掉,因為“未來十年我都不需要轉向”——這在邏輯上是說不通的。老闆們不應該只做極致降本,而忽視創造新價值 90%的工作被AI替代,但剩下的10%會被放大10倍主持人: 那我們就談談其中一個最具體、最現實的風險——就業。除了駭客攻擊這些問題,你最近在《60 Minutes》裡也談到過工作崗位。我想知道的不是“有沒有可能”,而是,如果真的出現大量入門級崗位被替代,你認為應該怎麼應對?Dario: 我之所以不斷髮出這些警告,並不是為了當什麼末日預言家,而是因為“發出警告本身,就是解決問題的第一步”。如果我們不提醒自己風險的存在,就相當於在雷區裡閉著眼睛往前走;如果我們看見了地雷,就可以繞開它。我這段時間在認真思考這些問題,在 Anthropic 內部也是一樣。現在 Claude 已經開始為我們寫大量程式碼,我們也在親身經歷“工作如何發生變化”。我把應對方式分成三個層級,從短期到長期,也對應從企業就能推動,到需要整個社會投入更多資源。第一層,是企業自身與客戶層面的調整。 每一家客戶都會面臨同樣的權衡,這不是簡單的“取代或不取代”。一部分場景中,AI 會直接完成原本由人類完成的工作,比如保險理賠流程、KYC 全流程自動化,這些都可以端到端由 AI 完成。結果就是:更高效率、更低成本、更少人力。但還有另一種路徑——那怕 AI 完成了 90% 的工作,而不是 100%,人類的“剩餘 10%”反而會被放大 10 倍,有時候甚至需要 10 倍的人,去完成原來 100 倍產出的事情。問題不在“會不會替代”,而在“企業願不願意更多選擇創造新價值,而不是只做極致降本”。 前一種他們一定會做,我們也不打算攔;但如果他們願意更多做第二種,新增崗位也可能超過被替代的崗位。第二層,是政府的介入。 我並不把“再培訓”視為萬能解法,但它一定是必要選項的一部分。企業會做,企業也必須和政府一起做。但從財政層面看,我認為政府遲早要介入。我不確定具體是稅收工具,還是其他政策工具。但在一個高速增長的世界裡,我們曾做過一份報告,即便是今天這些模型,也已經能讓生產率每年提高 1.6%。這幾乎意味著生產率的翻倍,而且模型還在不斷變強。我認為未來有可能到 5%,甚至 10%。 這是一塊極其巨大的“蛋糕”。如果財富過度集中,這塊蛋糕本身也足夠大,大到我們完全有條件照顧到那些並未直接從 AI 中受益的人。第三層,是更長期的社會結構問題。 如果一個社會真正建構出了強大的 AI,它的運行方式必然會發生變化。回到凱恩斯在《我們後代的經濟前景》中提出的“技術性失業”,他設想他的孫輩也許每周只需要工作 15 到 20 個小時。這是一種完全不同的社會結構。當然,總有人會選擇拚命工作,但是否可能出現這樣一個世界:對很多人來說,工作不再是生活的絕對中心,意義的來源發生轉移,工作不再只是為了生存,更偏向於實現感?這種可能性真實存在。 我不是在提任何自上而下的規劃,我只是認為,社會終究會在後 AGI 時代,自己找到新的運行方式。這三層變化,從企業層面最容易、最快發生,到政府層面需要共識,再到社會結構層面最慢、最難推進。但未來很多年裡,我們三件事都必須一起做。主持人: Dario,我真心希望你還能再回來,和我們繼續討論這三件事該怎樣一步一步落地。非常感謝今天這場精彩的對話。Dario: 謝謝你,Andrew。謝謝大家。 (51CTO技術堆疊)
從晶片到電力,人工智慧引發結構性變革!
一場由人工智慧(AI)革命驅動的全球性供應鏈危機正在形成,其影響深度與廣度已超越傳統的周期性短缺。這場危機的核心矛盾在於:爆炸式增長的AI算力需求,正與傳統製造業爭奪有限而關鍵的資源,從最前端的半導體晶片,延伸到電力、冷卻系統乃至工業金屬,重塑著全球生產和貿易格局。危機的起點集中於AI晶片及其製造環節。訓練和運行大語言模型需要海量的高端圖形處理器(GPU),這導致輝達等公司的先進晶片持續供不應求,交貨周期漫長。然而,瓶頸遠不止於成品晶片。製造這些晶片所必需的極紫外(EUV)光刻機等尖端裝置同樣產能受限,其複雜的供應鏈使得擴產速度無法跟上需求激增。此外,用於晶片封裝的CoWoS等先進封裝產能也已成為全球性的緊缺資源。更深遠的影響沿著產業鏈向上游傳導。AI資料中心的巨量能耗,正與工業生產和居民生活“爭奪”電力。在美國和歐洲部分地區,電網已面臨壓力,新的資料中心項目甚至因無法獲得穩定供電而被推遲。與電力配套的資料中心冷卻系統,其所需的零部件(如泵、冷卻劑)交貨時間也大幅延長。危機進一步蔓延至基礎原材料領域。用於製造伺服器機櫃、散熱系統以及電力基礎設施的銅、鋁等工業金屬,因AI基礎設施建設潮而需求大增。同時,為AI晶片提供超高速儲存支援的高頻寬儲存器(HBM),其產能已被幾家頭部企業鎖定,導致價格飆升並擠佔了其他儲存晶片的產能。這場由單一技術浪潮引發的廣泛短缺,本質上是新舊經濟模式對核心資源的一次重新配置。與傳統製造業不同,AI基礎設施的建設者——大型科技公司和雲服務提供商——對成本的承受能力更高,對獲取戰略資源的意願更為迫切,從而迅速推高了關鍵環節的價格並佔據了供應優先權。面對這種結構性變化,全球主要經濟體正採取不同策略。美國通過《晶片與科學法案》等產業政策,大力推動本土半導體製造和綠色能源投資,以夯實AI基礎設施的底層供應。中國則在強化晶片自主可控的同時,利用其在太陽能、風電等綠色能源領域的製造優勢,為資料中心建設提供可持續的電力解決方案。分析指出,此次供應鏈危機不會在短期內輕易緩解。它標誌著全球產業正步入一個以“算力”為核心資源進行配置的新階段。如何平衡AI前沿發展與傳統產業的基礎資源需求,建構更具韌性和彈性的新型供應鏈體系,將是各國政府和企業共同面臨的長期挑戰。這場由AI掀起的浪潮,正在考驗著全球工業體系的適應與進化能力。 (晶片行業)
谷歌TPU產能預期大幅上調67%,AI算力市場格局或將重塑
最新行業研究報告顯示,谷歌自研AI芯片TPU正迎來產能擴張的重要節點。根據供應鏈調研數據,機構將谷歌2027年TPU產量預測上調至500萬塊,較此前預期大幅增長67%,2028年預期更上調至700萬塊。這一調整反映出人工智能算力需求正在經歷爆發式增長。業內分析指出,谷歌TPU產量的激增可能意味着其將開啓對外銷售模式,這將爲谷歌開闢新的收入來源。據測算,每銷售50萬塊TPU芯片,有望爲谷歌帶來約130億美元的營收。與此同時,有消息稱Meta正在內部討論斥資數十億美元採購谷歌TPU,計劃從2027年開始將其整合到數據中心中。谷歌TPU作爲專爲深度學習定製的ASIC芯片,主要圍繞AI推理需求設計。隨着生成式AI從技術研發走向規模化應用,全球AI產業重心正加速從訓練轉向推理。據預測,2028年全球AI推理市場規模將達到1500億美元,年複合增長率超過40%,這一增速顯著高於訓練市場。在產業鏈層面,谷歌TPU的放量銷售將爲上下游企業帶來發展機遇。除了光學電路交換市場外,高帶寬存儲需求也將持續成長。三星電子與SK海力士已成爲谷歌TPU供應鏈的關鍵角色,其中SK海力士有望成爲谷歌第七代TPU的8層HBM3E芯片供應商。值得注意的是,谷歌雲平臺上的AI生態鏈正在顯現協同效應。某知名數據庫軟件開發商最新財報顯示,其雲數據庫產品營收大幅增長30%,主要受益於與谷歌雲平臺的深度集成。這一現象表明,下游AI應用的逐步成熟正在推動整個產業鏈進入良性循環。儘管近期市場出現波動,但長期來看,AI算力需求增長的邏輯並未改變。隨着各大科技企業生產線陸續投產,產業鏈上下游的芯片需求預計將迎來指數級增長。分析認爲,人工智能產業的發展趨勢已然明確,相關領域將持續呈現積極變化。
算力成本:一場耗資7億美元的資料中心規模化競賽
AI算力需求爆發正重塑資料中心投資版圖:2025年全球資本支出將超兆美元,微軟、亞馬遜等巨頭單年砸下數百億美元建智算中心,中國「東數西算」疊加新能源優勢,年內智算項目已超300個,投資規模近千億元。液冷、核能、模組化與REITs平行,綠色、高密度、可擴展成為資本追逐的新標竿,資料中心正從成本中心升級為AI時代的核心資產。人工智慧正催生對算力的旺盛需求,促使企業投入數十億美元用於基礎設施建設。然而,由於未來需求的不確定性,投資人需謹慎決策。AI is fueling high demand for compute power, spurring companies to invest billions of dollars in infrastructure. But with future demand uncertain, investors will need to make calculated decisions.在人工智慧熱潮下,算力正成為本世紀最關鍵的資源之一。在全球各地的資料中心,數百萬台伺服器全天候運轉,處理支撐人工智慧的基礎模型與機器學習應用。這些資料中心所需的硬體、處理器、記憶體、儲存和能源共同構成算力,而市場對算力的需求似乎永無止境。Amid the AI boom, compute power is emerging as one of this decade's most critical resources. In data centers across the globe, millions of servers run 24/7 to process the foundation getels and machine learning 組合, that ​​nandal, enerity, learning needed to operate these data centers are collectively known as compute power—and there is an unquenchable need for more.我們的研究表明,到2030年,全球資料中心需投入6.7億美元才能跟上算力需求的成長步伐。其中,AI處理負載能力的資料中心預計需5.2億美元支出,而支撐傳統IT應用的資料中心預計需1.5億美元支出。總體而言,到2030年資本支出總需求接近7億美元——無論以何種標準衡量,這都是一個驚人的數字。Our research shows that by 2030, data centers are projected to require $6.7 trillion worldwide to keep pace with the demand for compute power. Data centers equipped to handle AI processing loads are projected to repowerp.2 pped to handle AI processing loads are projected to repowers 25.2 5% 5.表 5% applications are projected to require $1.5 trillion in capital expenditures. Overall, that's nearly $7 trillion in capital outlays needed by 2030—a staggering number by any measure.為了滿足這一需求,算力價值鏈上的公司必須在快速部署資本和審慎決策之間取得平衡。要提高資料中心投資獲得豐厚回報率,企業可分階段推進項目,並在每一步評估投資回報率。但未來需求的不確定性使得精確的投資計算難以實現。To meet this demand, companies across the compute power value chain must strike a balance between deploying capital quickly and doing so prudently. To improve the odds that their data center investments willnvide scan return, scom smooo, s​​hool inscan wills scoms shd, scoms s​​hd, scom swhe scom, s​​stal, s​​an shd, scom, scom, sh.com each step. Still, a lack of clarity about future demand makes precise investment calculations difficult.算力價值鏈極為複雜——從建造資料中心的房地產開發商,到為其提供電力的公用事業公司,再到生產晶片的半導體企業,以及託管數兆太字節資料的雲端服務超大規模供應商均涵蓋其中。這條價值鏈上的領導者們深知,必須加大算力投資以推動人工智慧發展加速。然而,他們面臨的挑戰是艱難的:決定將多少資本分配到那些項目,同時卻無法確定人工智慧未來的成長與發展會如何影響算力需求。超大規模雲端服務提供者是否會繼續承擔成本壓力?還是企業、政府及金融機構會透過新的融資模式介入?在人工智慧使用量持續激增的情況下,資料中心需求是否會進一步上升?還是會隨著技術進步使人工智慧對算力需求的依賴減少而下降?The compute power value chain is complex—from the real estate developers that build data centers to the utilities that power them, to the semiconductor firms that produce chips to the cloud service hypersers that hosta caler produce chips to the cloud service hypersers that hosta caliv. must invest in compute power to accelerate AI growth. But their challenge is formidable: deciding how much capital to allocate to which projects, all while remaining uncertain of how AI's future growth and dedopment will impx or will enterprises, governments, and financial institutions step in with new financing models? Will demand for data centers rise amid a continued surge in AI usage, or will it fall as technological advances make AI usage, or will it fall as technological advances make less compute有一點毋庸置疑:此事利害攸關。過度投資資料中心基礎設施可能導致資產閒置,而投資不足則意味著落後。本文基於麥肯錫的研究分析,為算力價值鏈上的各類企業整理了未來五年的投資格局。儘管這些預測經過嚴謹論證,但我們也承認人工智慧是一個快速發展的領域。我們的分析雖然基於深入研究的假設,但仍存在一些無法量化的關鍵不確定性。One thing is certain: The stakes are high. Overinvesting in data center infrastructure risks stranding assets, while underinvesting means falling behind. This article, based on McKinsey research and analysis, provides com cross crossue. the next five years. Despite the rigor behind these forecasts, we acknowledge that AI is a radically evolving space. Our analysis is built on thoroughly researched hypotheses, but there are critical uncertainties that ununcertainet or unccan.預測算力需求曲線Predicting the compute power demand curve企業要決定在算力上投入多少,首先應精準預測未來需求——鑑於人工智慧產業變化如此之快,這絕非易事。我們的研究表明,到2030年,全球對資料中心容量的需求可能會接近三倍,其中約70%的需求來自人工智慧工作負載(見圖1)。但這一預測取決於兩個關鍵不確定性因素:To decide how much to invest in compute power, companies should first accurately forecast future demand—a challenging task given that the AI sector is shifting so rapidly. Our research shows that global mand de dataabout so rapidly。 of that demand coming from AI workloads (Exhibit 1). However, this projection hinges on two key uncertainties:人工智慧用例。人工智慧的價值體現在應用層面——企業如何將人工智慧轉化為實際業務價值。如果企業未能從人工智慧中創造實質價值,算力需求可能達不到預期。相反,變革性的人工智慧應用可能會推動比當前預測更大的需求。AI use cases. The value in AI lies at the application layer—how enterprises turn AI into real business impact. If companies fail to create meaningful value from AI, demand for compute power could fail short of expect age 決定, current projections suggest.快速創新周期和顛覆變革。人工智慧技術的持續進步,例如處理器、大語言模型(LLM)架構和功耗,可能會顯著提高效率。例如,2025年2月,中國的大語言模型參與者DeepSeek揭露,其V3模型在訓練和推理效率方面實現大幅提升,與GPT-4o相比,訓練成本大幅降低18倍,推理成本降低36倍。然而,初步分析表明,這類效率提升可能會被更廣泛人工智慧市場中激增的實驗與訓練活動所抵消。因此,從長期來看,效率提升或許不會對整體算力需求產生實質性影響。。 that its V3 model achieved substantial improvements in training and reasoning efficiency, notably reducing training costs by approximately 18 times and inferencing costs by about 36 times, pared . types of efficiency gains will likely be offset by increased experimentation and training across the broader AI market. As a result, efficiency gains may not substantially impact overall compute power demand over the long demandm.僅人工智慧需求就需5.2兆美元的投資AI demand alone will require $5.2 trillion in investment我們測算,2030年,算力價值鏈上的各類企業僅為滿足全球人工智慧需求,就需向資料中心投入5.​​2億美元。這一數字基於廣泛的分析和關鍵假設,包括到2030年預計需要156吉瓦(GW)與人工智慧相關的數據中心容量,2025年至2030年期間將增加125吉瓦。這5.2兆美元的數字反映了滿足人工智慧計算能力不斷增長的需求所需的巨額投資規模——這一龐大的資本投入,也凸顯了未來挑戰的艱巨性。We calculate that companies across the compute power value chain will need to invest$5.2 trillion into data centers by 2030 to meet worldwide demand for AI alone. We based this figure on extensive anawide demand for AI alone. We based this figure on extensive analysis and key assaings projects projects, 375), g sadvvvv) AI-related data center capacity demand by 2030, with 125 incremental GW added between 2025 and 2030. This $5.2 trillion figure reflects the sheer scale of investment required to meet the wing mand for meet the compute scale of investment required to meet the wing mand for meet the compute scale ofinvestmentremed magnitude of the challenge ahead (see sidebar “The scale of investment”).鑑於未來算力需求存在不確定性,我們建立了三種投資情景,從需求受限到加速成長(見圖2)。在第一種情境中,成長大幅提速,2025年至2030年期間將增加205吉瓦,這將需7.9億美元的資本支出。本文採用的是第二種情景:需求有所增長,但不及第一種情景,預計資本支出為5.2兆美元。第三種情境為需求較受限的情況,未來五年新增容量78吉瓦,總資本支出為3.7 億美元。Amid the uncertainty about future needs for compute power, we created three investment scenarios ranging from constrained to accelerated demand (Exhibit 2). In the first of our取 three scenarios, growth relbit 2). In the first of our取 three scenarios, growth relelerates signal accly 20 月added between 2025 and 2030. This would require an estimated $7.9 trillion in capital expenditures. The second scenario is the one we use in this article: Demand grows, but not groas we use in this article: Demand 實體$5.2 trillion. In our third scenario, in which demand is more constrained, with 78 incremental GW added in the next five years, the total capital expenditure is $3.7 trillion .2025-2030 年預測:人工智慧驅動的全球資料中心資本支出總額(按類別與情境劃分)單位:兆美元Global data center total capital expenditures driven by Al,by category and scenario, 2025-30 projection, $ trillion無論那種情景,這些投資數額都極為驚人,背後有多重因素驅動:In any scenario, these are staggering investment numbers. They are fueled by several factors:生成式人工智慧的大規模應用。支撐生成式人工智慧的基礎模型,其訓練與運作需要大量算力資源。訓練和推理工作負載都在推動基礎設施的成長,預計到2030年,推理將成為主要的工作負載。Mass adoption of gen AI. The foundation models that underpin gen AI require significant compute power resources to train and operate. Both training and inference workloads are contributing to infrastructure growth, with inference expected to ben contributing to infrastructure growth, with inference expected to become 30.企業整合。在各行業(從汽車到金融服務)部署人工智慧驅動的應用程序需要大量的雲端運算能力。隨著應用場景不斷增多,人工智慧應用將愈發複雜,會整合為特定領域量身定製的專用基礎模型。Enterprise integration. Deploying AI-powered applications across industries—from automotive to financial services—demands massive cloud computing power. As use cases grow, AI applications will grow more sophisticated, integrating specialed.激烈的基礎設施競賽。超大規模供應商和企業正在競相建立專屬人工智慧算力以獲得競爭優勢,這推動了越來越多的資料中心的建設。這些「建設者」(下文將進一步描述)希望透過實現規模效應、優化資料中心技術堆疊,最終降低算力成本,從而鞏固競爭優勢。Competitive infrastructure race. Hyperscalers and enterprises are racing to build proprietary AI capacity to gain competitive advantage, which is fueling the construction of more and more data centers. These "builders” (as furbe des pib) descr3 3000m ”(achieving scale, optimizing across data center tech stacks, and ultimately driving down the cost of compute.地緣政治考量。各國政府正大力投資人工智慧基礎設施,以增強安全、經濟領導和技術獨立性。Geopolitical priorities. Governments are investing heavily in AI infrastructure to enhance security, economic leadership, and technological independence.這些投資將流向何處?Where is the investment going?需要說明的是,我們對人工智慧基礎設施 5.2 兆美元的投資預測存在一定侷限性—— 該分析可能低估了所需的總資本投入,因為我們的估算僅量化了五類算力投資者中的三類,即建設者、能源供應商以及技術研發與設計商。這三類投資者直接為人工智慧發展所需的基礎設施和基礎技術提供資金支援(詳見側邊欄「五類資料中心投資者」)。約15%(0.8兆美元)的投資將流向建設者,用於土地、材料和場地開發。另有25%(1.3兆美元)將分配給賦能者,用於發電和輸電、冷卻和電氣裝置。最大的投資份額,即60%(3.1兆美元),將流向技術開發者和設計師,他們為數據中心生產晶片和計算硬體。另外兩種投資者原型,運營商(如超大規模提供商和共址提供商)和人工智慧架構師(他們構建人工智慧模型和應用)也投資於計算能力,特別是在人工智慧驅動的自動化和數據中心軟件等領域。但由於這類投資與他們的整體研發支出有重疊,因此難以單獨量化其在算力上的具體投入規模。To qualify our $5.2 trillion investment forecast for AI infrastructure, it's important to note that our analysis likely undercounts the total capital investment needed, as our estimate quantifies capital investment for only three out of five compute power investor archetypes—builders, energizers, and technology developers and designers—that directly finance the infrastructure and foundational technologies necessary for AI growth (see sidebar “Five types of data center investors”). Appximate 是 15 cent 你。 materials, and site development. Another 25 percent ($1.3 trillion) will be allocated to energizers for power generation and transmission, cooling, and electrical equipment. The largest share of investment, 60 will ($3. produce chips and computing hardware for data centers. The other two investor archetypes, operators, such as hyperscalers and colocation providers, and AI architects, which build AI models 和center software. But quantifying their compute power investment is challenging because it overlaps with their broader R&D spending.五類資料中心投資者Five types of data center investors儘管預計需要如此龐大的資本投入,但我們的研究顯示,當前投資規模仍落後於需求。在數十次客戶訪談中我們發現,執行長們不願全力投資算力產能,因為他們對未來需求的洞察力有限。對人工智慧採用是否會繼續快速上升的不確定性,以及基礎設施項目有很長的前置時間,使得企業難以做出明智的投資決策。許多公司不確定今天對人工智慧基礎設施的大規模資本支出是否會在未來產生可衡量的投資回報率。那麼,企業領導者如何能自信地推進他們的投資呢?首先,他們可以確定自己的組織在計算能力生態系統中的位置。Despite these projected capital requirements, our research shows that current investment levels lag demand. In dozens of client interviews, we found that CEOs are hesitant to invest in compute power capacity at maximum levels be hesitant to invest in compute power capacity at maximum levels be hesit. about whether AI adoption will continue its rapid ascent and the fact that infrastructure projects have long lead times make it difficult for companies to make informed investment decisions. Many comcommend are unsure wheake informed investment decisions。 measurable ROI in the future. So how can business leaders move forward confidently with their investments? As a first step, they can determine where their organizations fall within the compute power ecosystem.人工智慧基礎設施投資者的五大類型Five archetypes of AI infrastructure investors這場兆級美元的人工智慧算力投資競賽背後,究竟是誰在主導?我們已明確說明五類核心投資者類型,每類都面臨獨特的挑戰與機遇,同時也詳細測算出它們未來五年的潛在投入規模。Who are the investors behind the multitrillion-dollar race to fund AI compute power? We have identified five key investor archetypes, each navigating distinct challenges and opportunities, and detailed how much they could spstinct challenges and opportunities, and detailed how much they could spend in the next five spendy.1. 建設者 Builders核心身份:房地產開發商、設計公司和建築公司,正在擴大大量資料中心的容量。Who they are: real estate developers, design firms, and construction companies expanding data center capacity人工智慧工作負載的資本支出:8000億美元。AI workload capital expenditure: $800 billion非人工智慧工作負載的資本支出:1000億美元。Non-AI workload capital expenditure: $100 billion關鍵投資:土地和材料採購、熟練勞動力、場地開發。Key investments: land and material acquisition, skilled labor, site development機遇。建設者若能優化選址,可搶佔核心區位、縮短建設周期,並儘早融入營運反饋,從而實現數據中心更快部署與更高運營效率。Opportunities.Builders that optimize site selection can secure prime locations, reduce construction timelines, and integrate operational feedback early, ensuring faster deployment and higher data center effency.挑戰。技術人員與建築工人的勞動力短缺可能影響人力供給,而選址限制可能壓縮可選場地範圍。與此同時,機架功率密度的增加可能會帶來空間和冷卻方面的挑戰。Challenges.Labor shortages could impact technician and construction worker availability, while location constraints could limit site selection options. Meanwhile, increased rack ges density could create space and cooling lenlen.解決方案。具有前瞻性的建設者能夠找到核心挑戰的應對之策,為其投資決策增添確定性。例如,一些建設者透過採用模組化設計來解決勞動力短缺問題,這種設計簡化了建設過程,例如在場外建造大型元件,然後在現場組裝。Solutions.Forward-thinking builders can find solutions to core challenges, adding certainty to their investment decisions. For example, some are solving the labor shortage issue by adopting mod alsigns that solving the labor shortage issue by adopting mod alsigns that cesstreams sargeion can be assembled on-site.2. 賦能者 Energizers核心身份:公用事業公司、能源供應商、冷卻/電氣裝置製造商和電信運營商,他們正在為人工智慧數據中心建設電力和連接基礎設施。Who they are: utilities, energy providers, cooling/electrical equipment manufacturers, and telecom operators building the power and connectivity infrastructure for AI data centers人工智慧工作負載的資本支出:1.3兆美元。AI workload capital expenditure: $1.3 trillion非人工智慧工作負載的資本支出:2000億美元。Non-AI workload capital expenditure: $200 billion核心投資領域:發電(發電廠、輸電線路)、冷卻解決方案(空氣冷卻、直接晶片液體冷卻、浸沒式冷卻)、電氣基礎設施(變壓器、發電機)、網絡連接(光纖、電纜)。Key investments: power generation (plants, transmission lines), cooling solutions (air cooling, direct-to-chip liquid cooling, immersion cooling), electrical infrastructure (transformers, generators), net connectivity) (networkn,able)機遇。能源供應商若能擴大電力基礎設施規模,並在可持續能源解決方案方面開展創新,將能更能掌握超大規模雲服務供應商日益增長的能源需求所帶來的機會。Opportunities.Energizers that scale power infrastructure and innovate in sustainable energy solutions will be best positioned to benefit from hyperscalers' growing energy demands.挑戰。現有電網的薄弱環節可能導致資料中心供電受阻,而處理器密度不斷提升所帶來的熱管理難題仍是一大障礙。此外,賦能者還面臨清潔能源轉型的要求和漫長的電網連接審批流程。Challenges.Powering data centers could stall due to existing grid weaknesses and solving heat management challenges from rising processor densities remains an obstacle. Energizers also face clean-energy transition re解決方案。鑑於超過 1 兆美元的投資面臨風險,賦能者正在尋找方法提供可靠的電力,同時推動投資回報率。他們正在對新興發電技術進行大量投資,包括核能、地熱能、碳捕獲與儲存以及長期能源儲存。同時,他們正加強,盡快提升各類能源的上線容量既涵蓋再生能源,也包括天然氣、化石燃料等傳統能源基礎設施。當前的變化在於,能源需求的規模已極為龐大,這催生了以空前速度建設發電產能的新緊迫性。隨著需求——尤其是對清潔能源的需求——的激增,預計發電量將迅速增長,可再生能源預計到2030年將佔能源結構的45%到50%,而今天僅佔約三分之一。Solutions.With over $1 trillion in investment at stake, energizers are finding ways to deliver reliable power while driving ROI. They are making substantial investments in emerging power-generation technologies—including captures, ) capgeage, 片面They are also doubling down on efforts to bring as much capacity online as quickly as possible across both renewable sources and traditional energy infrastructure, such as gas and fossil fuels. What ismands nowa is a遠 that the build power capacity at unprecedented speed. As demand—especially for clean energy—surges, power generation is expected to grow rapidly, with renewables projected to account for approximately 45 to 50 percent to 20 energy 2003, 000 energy 30day 50 enerper 20030,3. 技術研發與設計商 Technology developers and designers核心身份:為資料中心生產晶片和計算硬體的半導體公司和IT供應商。Who they are: semiconductor firms and IT suppliers producing chips and computing hardware for data centers人工智慧工作負載的資本支出:3.1兆美元。AI workload capital expenditure: $3.1 trillion非人工智慧工作負載的資本支出:1.1兆美元。Non-AI workload capital expenditure: $1.1 trillion核心投資領域:圖形處理單元(GPU)、中央處理單元(CPU)、記憶體、伺服器和機架硬體。Key investments: GPUs, CPUs, memory, servers, and rack hardware機遇。技術研發與設計商若能投資於具備可擴展性、面向未來的技術,且擁有明確的需求洞察力作為支撐,將能在人工智慧計算領域獲得競爭優勢。Opportunities.Technology developers and designers that invest in scalable, future-ready technologies supported by clear demand visibility could gain a competitive edge in AI computing.挑戰。少數幾家半導體公司控制著市場供應,抑制了競爭。產能建設仍不足以滿足當前需求,與此同時,人工智慧模型訓練方法與工作負載的變化,使得特定晶片的未來需求難以預測。Challenges.A small number of semiconductor firms control the market supply, stifling competition. Capacity building remains insufficient to meet current demand, while at the same time, shifts in AI model trainture method and while at the same time, shifts in AI model 大chips.解決方案。在算力競賽中,技術研發與設計商的潛在效益最大,因為正是它們提供了承擔實際計算工作的處理器與硬體。目前市場對其產品的需求旺盛,但它們的投資需求也最為龐大——未來五年將超過 3 億美元。少數幾家半導體公司對行業供應有著不成比例的影響,使他們成為計算能力成長的潛在瓶頸。技術開發者和設計師可以透過擴大製造能力並多樣化供應鏈來緩解這一風險,以防止瓶頸。Solutions.Technology developers and designers have the most to gain in the compute power race because they are the ones providing the processors and hardware that do the actual computing. Demand for their products is currently high, but the grle 造成 highnes the grolducts is currently0,five years. A small number of semiconductor firms have a disproportionate influence on industry supply, making them potential chokepoints in compute power growth. Technology developers and designers can mitigate this ifyrby expanding and un​​ywperion this risk by bottlenecks.4. 運營商 Operators核心身份:超大規模提供者、共址提供者、GPU即服務平台以及透過提高服務器利用率和效率來優化計算資源的企業。Who they are: hyperscalers, colocation providers, GPU-as-a-service platforms, and enterprises optimizing their computing resources by improving server utilization and efficiency人工智慧工作負載的資本支出:未包含在此分析中。AI workload capital expenditure: not included in this analysis非人工智慧工作負載的資本支出:未包含在此分析中。Non-AI workload capital expenditure: not included in this analysis核心投資領域:資料中心軟件、人工智慧驅動的自動化、訂製矽片。Key investments: data center software, AI-driven automation, custom silicon機遇。業者若能有效率擴大規模,同時平衡投資回報率(ROI)、性能與能源消耗,將可望引領產業長期發展。Opportunities.Operators that scale efficiently while balancing ROI, performance, and energy use can drive long-term industry leadership.挑戰。人工智慧託管應用尚不成熟,可能導致長期投資回報率(ROI)的計算難以清楚量化。資料中心營運效率低正推高成本,但人工智慧需求的不確定性仍在繼續擾亂長期基礎設施規劃和採購決策。Challenges.Immature AI-hosted applications can obscure long-term ROI calculations. Inefficiencies in data center operations are driving up costs, but uncertainty in AI demand continues to disrupt long-term.解決方案。儘管如今的數據中心已處於較高的運行效率水平,但人工智慧創新的迅速發展仍要求運營商同時優化能源消耗與工作負載管理。部分運營商透過投資更有效的冷卻解決方案和增加機架堆疊能力在不犧牲處理能力的前提下減少空間需求,從而提高資料中心的能源效率。另一些運營商正在投資人工智慧模型開發本身,以建立需要較少計算能力來訓練和運行的架構。Solutions.While data centers today operate at high-efficiency levels, the rapid pace of AI innovation will require operators to optimize both energy consumption and workload management. Some operators are improving energy dataeffect inject insticution and 周長increasing rack stackability to reduce space requirements without sacrificing processing power, for example. Others are investing in AI model development itself to create architectures that need less compute power to be trained and operateditectures that need less compute power to be trained and operated.5. 人工智慧架構師 AI architects核心身份:人工智慧模型開發者、基礎模型提供者、建構專有AI能力的企業。Who they are: AI model developers, foundation model providers, and enterprises building proprietary AI capabilities人工智慧工作負載的資本支出:未包含在此分析中。AI workload capital expenditure: not included in this analysis非人工智慧工作負載的資本支出:未包含在此分析中。Non-AI workload capital expenditure: not included in this analysis核心投資領域:模型訓練與推理基礎設施,演算法研究。Key investments: model training and inference infrastructure, algorithm research機遇。人工智慧架構師若能發展出平衡效能與低算力需求的架構,將引領下一波人工智慧應用浪潮。而投資於AI能力的企業可以透過開發符合其需求的專用模型來獲得競爭力。Opportunities.AI architects that develop architectures that balance performance with lower compute requirements will lead the next wave of AI adoption. Enterprises investing in proprietary AI capabilities can eds competitiveness by 字詞 specialtail bys specialtail.挑戰。人工智慧治理相關問題,包括偏見、安全和監管,增加了行業複雜度,可能會減緩發展。與此同時,推理構成了一個主要的不可預測成本組成部分,企業正面臨難以證明人工智慧投資的明確投資回報率的困難。Challenges.AI governance issues, including bias, security, and regulation, add complexity and can slow development. Meanwhile, inference poses a major unpredictable cost component, and enterprises are facing dicis ultare facs解決方案。大規模人工智慧模型不斷升級的計算需求正在增加訓練它們的成本,特別是在推理方面,即訓練有素的人工智慧模型將他們學到的知識應用到新的、未見過的數據上以做出預測或決策的過程。具有先進推理能力的模型,如OpenAI的o1,需要顯著更高的推理成本。例如,與該公司的非推理型GPT-4o相比,OpenAI的o1的推理成本高出六倍。為降低推理成本,領先的AI企業正通過稀疏啟動、知識蒸餾等技術優化模型架構。這些方案能夠減少AI模型產生回應時所需的算力,提升營運效率。Solutions.The escalating computational demands of large-scale AI models are driving up the costs to train them, particularly regarding inference, or the process where trained AI models apply their learned knowledge to newsion, sdics dataly their learns formly their learndeen to newsion, sdics dataorv. capabilities, such as OpenAI's o1, require significantly higher inference costs. For example, it costs six times more for inference on OpenAI's o1 compared with the company's nonreasoning GPT-4. optimizing their model architectures by using techniques like sparse activations and distillation. These solutions reduce the computational power needed when an AI model generates a response, making operations more icient.人工智慧基礎設施發展的關鍵考量因素Critical considerations for AI infrastructure growth企業在規劃人工智慧基礎設施投資時,需應對多種潛在結果。在需求受限的場景下,受供應鏈限制、技術變革及地緣政治不確定性影響,人工智慧相關資料中心的產能建設可能需要 3.7 億美元資本支出。而在需求加速成長的場景下,這些阻礙因素得到緩解,投資規模或高達 7.9 億美元。緊跟不斷變化的行業格局,對於制定明智且具戰略性的投資決策至關重要。投資者必須考慮的不確定性因素包括:As companies plan their AI infrastructure investments, they will have to navigate a wide range of potential outcomes. In a constrained-demand scenario, AI-related data centercapacityilliondisruptions, and geopolitical uncertainty. These barriers are mitigated, however, in an accelerated-demand scenario, leading to investments as high as $7.9 trillion. Staying on top of the evolving landscape is instical landscapeking informed. uncertainties investors must consider include:技術變革。模型架構的突破,包括計算利用效率的提高,可能降低對硬體和能源的預期需求。Technological disruptions. Breakthroughs in model architectures, including efficiency gains in compute utilization, could reduce expected hardware and energy demand.供應鏈限制。勞動力短缺、供應鏈瓶頸和監管障礙可能會延遲電網連接、晶片供應和數據中心擴展——減緩整體人工智慧的採用和創新。為瞭解決關鍵晶片的供應鏈瓶頸,半導體公司正在投入大量資本建設新的製造設施,但由於監管限制和上游裝置供應商的長前置時間,這種建設可能會停滯。Supply chain constraints. Labor shortages, supply chain bottlenecks, and regulatory hurdles could delay grid connections, chip availability, and data center expansion—slowing overall 過程investing significant capital to construct new fabrication facilities, but this construction could stall due to regulatory constraints and long lead times from upstream equipment suppliers.地緣政治緊張局勢。關稅波動與技術出口管制可能為算力需求帶來不確定性,進而潛在影響基礎設施投資與人工智慧的發展。Geopolitical tensions. Fluctuating tariffs and technology export controls could introduce uncertainty in compute power demand, potentially impacting infrastructure investments and AI growth.競爭優勢的角逐The race for competitive advantage在人工智慧驅動的計算時代,贏家將是那些能夠預判算力需求並進行相應投資的企業。算力價值鏈上的各類企業,若能主動掌握關鍵資源(土地、材料、能源容量和計算能力)將可望獲得顯著的競爭優勢。為實現有把握的投資,它們可採取三管齊下的策略。The winners of the AI-driven computing era will be the companies that anticipate compute power demand and invest accordingly. Companies across the compute power value chain that proactively secure critical resources — land, erialscity, gy as enerftd enerure critical resources—land, aterialscity, cat enerle enerftd enerft, enery, part, enerityenertercomenerftdedge. To invest with confidence, they can take a three-pronged approach.首先,投資者需要在不確定性中理解需求預測。企業應儘早評估人工智慧計算需求,預判需求的潛在變化,並制定具備可擴展性的投資策略,以適應人工智慧模型及應用場景的演進。其次,投資人需探索提升計算效率的創新路徑。具體而言,可優先投資於兼具成本效益與能源效率的計算技術,在最佳化性能的同時,管控能耗與基礎設施成本。第三,投資者可建構供應端韌性,確保人工智慧基礎設施在不過度投入資本的前提下持續成長。這將需要投資者確保關鍵投入(如能源和晶片),最佳化選址,並為供應鏈注入靈活性。First, investors will need to understand demand projections amid uncertainty. Companies should assess AI computing needs early, anticipate pot ential shifts in demand, and design scalable investment strategies that can ential shifts in demand, and design scalable investment strategies that can ential shifts in demand, and design scalable investment strategies that can ential shifts in deals of designal mod . innovate on compute efficiency. To do so, they can prioritize investments in cost- and energy-efficient computing technologies, optimizing performance while managing power consumption and infrastructure motside Third, the can pun​​ion sem. without overextending capital. This will require investors to secure critical inputs such as energy and chips, optimize site selection, and build flexibility into their supply chains.在成長與資本效率之間取得平衡至關重要。戰略投資不只是一場擴巨量資料基礎設施規模的競賽,更是一場塑造人工智慧未來的競爭。Striking the right balance between growth and capital efficiency will be critical. Investing strategically is not just a race to scale data infrastructure—it'sa race to shape the future of AI itself. (DeepKnowledge)